Monthly Archives: novembro 2024

Em conferência da Meta 2019, seu CEO, Mark Zuckerberg, anunciava que “o futuro é privado” - Foto: Anthony Quintano/Creative Commons

Decisões da Meta reabrem debates sobre uso da IA para identificação de pessoas

By | Tecnologia | No Comments

Quem garante que nós somos quem dizemos ser? Essa provocação faz sentido em um tempo em que a inteligência artificial ajuda a identificar pessoas (incluindo criminosos), mas ainda erra muito nessa tarefa, com resultados indesejáveis, como mandar inocentes para a cadeia. Decisões recentes da Meta esquentam esse debate sobre como equilibrar os benefícios e os riscos dessa tecnologia.

A empresa, que é dona do Facebook, do Instagram e do WhatsApp, anunciou recentemente duas medidas bem-vindas nesse campo. A primeira mapeará rostos de celebridades para evitar que suas imagens sejam usadas em vídeos falsos, em que normalmente aparecem vendendo produtos. Em outra iniciativa, a IA será usada para tentar identificar a idade de usuários, em um movimento para prevenir que crianças e adolescentes sejam expostos a conteúdos inadequados.

Os anúncios, especialmente o primeiro, desfazem uma reviravolta na postura da companhia nessa área: em 2021, o reconhecimento facial dos seus produtos, que já funcionava havia uma década, foi desativado diante da pressão da sociedade, problemas regulatórios e investigações em diferentes países. Agora, ele está de volta, como resposta à demanda pelo combate à usurpação de imagens alheias.

Essas ações da Meta são emblemáticas pela enorme importância de seus produtos na vida de bilhões de pessoas, mas estão longe de serem únicas nessa polêmica. O uso da IA na identificação é cada vez mais comum, e raramente o cidadão sabe desse monitoramento. A sociedade precisa estar consciente desse “Big Brother permanente” a que estamos submetidos, para decidir se seus ganhos superam os problemas.


Veja esse artigo em vídeo:


O reconhecimento de imagem da Meta era usado para automaticamente marcar pessoas nas fotos publicadas nas plataformas, criando vínculos entre as contas dos usuários. Além disso, as pessoas eram avisadas que estavam aparecendo em fotos alheias. Mas diante dos questionamentos sobre como essa tecnologia seria usada, a big tech eliminou o recurso e apagou os dados faciais de mais de 1 bilhão de pessoas.

Agora a empresa está reativando a tecnologia para evitar que as imagens de celebridades e outras pessoas públicas sejam usadas sem permissão em publicidades no Facebook e no Instagram. Se o sistema identificar isso, o anúncio será automaticamente tirado do ar. Já em testes com algumas celebridades, ele valerá para todas elas no ano que vem. Se alguma não quiser que o sistema reconheça sua imagem, deverá informar essa decisão na plataforma.

A Meta também usará o reconhecimento de imagem para restituir contas roubadas a seus verdadeiros donos. Nesse caso, a pessoa deverá gravar um vídeo de seu rosto, que será comparado com as fotos nos perfis do Facebook e do Instagram. A empresa afirma que, tanto nesse recurso quanto na verificação em publicidade, o reconhecimento facial não será usado para nenhuma outra finalidade, e os arquivos usados no processo serão excluídos ao seu final.

Também para o próximo ano, a Meta implantará o recurso “classificador de adultos”, que usará a IA para descobrir a idade real de um usuário. No caso de concluir que tem menos de 18 anos, a conta será automaticamente classificada como de adolescente, o que implica em várias restrições. Para isso, a tecnologia monitorará publicações e gostos do próprio usuário e de seus amigos. Ao se tentar alterar a idade, o sistema poderá exigir que o usuário grave um vídeo para estimá-la por características faciais.

Muitos adolescentes mentem a idade para ficarem livres desses limites. Com isso, ficam expostos a diferentes conteúdos nocivos, que podem causar problemas variados de saúde mental. Ao redor do mundo, há até mesmo diversos casos de suicídio de adolescentes atribuídos a influência do que viram no Facebook e no Instagram.

Ninguém discute as boas intenções dessas iniciativas. Mas há sempre o temor de que isso possa violar diferentes direitos individuais. E apesar de a Meta garantir que essas informações não serão usadas para outra finalidade, o histórico da companhia de lucrar muito com as informações de seus usuários representa uma sombra indelével. Além disso, a IA desses sistemas foi e continua sendo responsável direta por todo tipo de manipulação política e econômica, que levou à insana polarização da sociedade nos últimos anos.

 

Big Brother para todos

Apesar disso, restringir o acesso da Meta aos nossos dados é mais fácil que o visto em outras casos. Ela é uma empresa com produtos claramente identificados e, ainda que contra sua vontade e de maneiras pouco óbvias, o usuário pode impedir que a big tech use seus dados para algumas atividades, como o treinamento de sua IA. Mas não se pode esquecer que seu modelo de negócios é todo construído sobre usar nossas informações para nos entregar anúncios “mais relevantes”.

Quando andamos na rua, a situação fica muito mais grave. Em grandes cidades do mundo, somos continuamente monitorados por incontáveis câmeras públicas e privadas. Entre seus objetivos, estão nos identificar para segurança, interesses de diferentes organizações particulares e governamentais, identificação de padrões de comportamento e muito mais.

Novamente muitos desses serviços trazem benefícios aos indivíduos, mas também podem causar enormes transtornos quando erram. E erram muito! Além disso, as pessoas não são sequer informadas de que estão sendo monitoradas, não dando consentimento para tal, o que, de cara, violaria a Lei Geral de Proteção de Dados. Obviamente elas tampouco têm como impedir essa prática.

Um bom exemplo é o programa Smart Sampa, que espalhou dezenas de milhares de câmeras pela capital paulista. Sua proposta original previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.” Além de ser subjetiva, monitorar alguém pela sua cor é ilegal! A redação mudou, mas o objetivo não.

O reconhecimento facial falha em torno de 1% entre brancos e 30% entre negros, especialmente mulheres. Isso acontece porque há muito menos fotos de negros que de brancos no treinamento desses sistemas. Assim muitos inocentes, em várias cidades, já foram presos por serem confundidos com criminosos, e tiveram que provar o contrário, passando por riscos e violências enquanto isso.

Esses são apenas alguns exemplos de como a IA pode causar danos enormes, mesmo quando a intenção de seu uso seja positiva. Seus benefícios são claros, e seu uso é um caminho sem volta. Mas os problemas associados a ela ainda são grandes demais para serem ignorados, e, portanto, devem ser amplamente debatidos.

Não podemos aceitar que nos sejam impostos de maneiras obscuras.

 

Para o CEO da OpenAI, Sam Altman, devemos chegar à IA Geral nos próximos anos: agentes são um possível caminho - Foto: reprodução

Líderes da IA começam nova corrida tecnológica

By | Tecnologia | No Comments

A disputa para dominar a inteligência artificial anda tão acirrada, que se parece cada vez mais a uma corrida de cavalos, em que o ganhador vence “por um nariz”. Agora foi dada a largada para um novo páreo, o dos agentes de IA, e os principais nomes dessa indústria já estão na pista!

Isso não quer dizer que os agentes sejam uma novidade: eles já existem há anos em nossas vidas pessoais e profissionais. Mas até agora são soluções prontas dos fabricantes. Criar o próprio agente é uma tarefa complexa e que exige conhecimentos técnicos. O que Microsoft, OpenAI, Google e Anthropic prometem agora é tornar essa tarefa tão simples quanto conversar com um chatbot, como já nos acostumamos.

Um agente é um sistema que usa a IA para realizar tarefas específicas de maneira autônoma, com pouca ou nenhuma dependência de um ser humano. Ele age de maneira contínua, monitorando o ambiente e analisando dados para tomar decisões seguindo o que lhe foi pedido. Isso é bem diferente de um uso da IA generativa, como conversas com o ChatGPT, em que, por mais incríveis que seus resultados sejam, são atividades pontuais e totalmente dependentes da interação com o usuário.

Essas empresas agora prometem unir o melhor desses dois mundos, de modo que qualquer pessoa possa criar agentes sofisticados de maneira tão simples, quanto pedir que o chatbot escreva um texto. Ainda que isso não vá acontecer imediatamente, a simples abertura desse caminho pode ser realmente revolucionária.


Veja esse artigo em vídeo:


A Microsoft saiu na frente nessa nova etapa, com o lançamento do Copilot Studio. Ele permite criar agentes de IA com relativa facilidade, expandindo as funcionalidades do Copilot ao integrá-lo a bases de dados empresariais, gerando respostas a partir dessas informações, considerando cada contexto específico. Esses agentes podem ser distribuídos para pessoas dentro e fora da organização.

Já a Anthropic, startup de IA ligada ao Google e à Amazon, anunciou recentemente uma abordagem inusitada para sua plataforma Claude, batizada de “uso do computador”. Ainda na fase de testes, ela inova ao adaptar a IA para o uso de sistemas existentes, e não o contrário. Ela pode, por exemplo, assumir o controle de um computador como se fosse o usuário, para realizar tarefas de acordo com o que aparece na tela, até mesmo usando vários programas.

A OpenAI, que continua sendo a estrela mais brilhante do setor com seu ChatGPT, obviamente não quer ficar para trás. A empresa anunciou a versão de testes de um produto para desenvolvedores semelhante à solução da Anthropic. Ela deve ser liberada em janeiro.

O Google também “está dando seus pulos”. A empresa promete novidades na área de agentes ainda nesse ano! Vale lembrar que a empresa impressionou muita gente em 2019, quando ninguém ainda falava de IA generativa, com o lançamento do Google Duplex. Ele permite que o usuário peça que o Assistente realize tarefas simples, com a possibilidade de fazer ligações telefônicas, para, por exemplo, reservar uma mesa de restaurante, interagindo com atendentes humanos. Essas conversas são tão impressionantes, que muita gente se incomodou quando descobria que estava falando com um robô, e não com outra pessoa.

Os agentes que já estão disponíveis em nosso cotidiano se diferenciam de automações convencionais justamente pelas características da IA, especialmente de continuar funcionando se algo não sai como o esperado. Eles também melhoram com o uso, aprendendo coisas novas.

 

O futuro é dos agentes

Nas empresas, os agentes vêm sendo usados cada vez mais no atendimento automatizado a clientes. Eles também são muito úteis ao identificar movimentos do mercado e propor ações mais assertivas para as equipes comerciais, além de ajudar em negociações e de propor ideias aos gestores. Eles também são bastante usados pelo RH, em processo de contratação e até de demissão de profissionais.

Em nosso cotidiano pessoal, os agentes estão em nossos smartphones (no Google Assistente e na Siri) e em alto-falantes inteligentes, como o Amazon Echo. Nesse último, a Alexa pode, entre outras coisas, identificar compras recorrentes e auxiliar em novos pedidos, quando necessário. Relógios inteligentes e outros dispositivos podem monitorar a nossa saúde, e até eletrodomésticos, como aspiradores de pó robôs, realizam tarefas da casa de forma autônoma e cada vez melhor.

Quando a nova geração de agentes sair da fase de testes e chegar ao cidadão comum, ela poderá ampliar seus poderes consideravelmente. As pessoas não ficarão mais restritas aos agentes criados pelos fabricantes dos equipamentos.

Isso permitirá a definição de regras complexas, que combinarão recursos e informações de diferentes serviços aos que o usuário tem acesso. Por exemplo, será possível tirar automaticamente dinheiro de uma aplicação financeira que esteja com baixa rentabilidade para comprar ações de uma empresa com boas perspectivas.

É praticamente um consenso entre especialistas que os agentes representam o futuro da IA. Eles não apenas se tornarão mais diversificados e poderosos, como também serão mais fáceis de se criar. Além disso, veremos cada vez mais soluções complexas resultantes da combinação de vários agentes trabalhando em conjunto.

Muita gente acredita que esse seja o caminho para a Inteligência Artificial Geral (IAG), o “Santo Graal” dessa tecnologia. Quando (e se) estiver disponível, ela tomará decisões de maneira autônoma (ou seja, sem necessidade de comandos de alguém), sobre qualquer assunto e de maneira adaptável. É basicamente como nosso cérebro funciona, mas a IAG terá sobre nós a vantagem de analisar, com velocidade sobre-humana, uma quantidade de dados gigantesca, para tomar decisões mais assertivas.

Ainda existe muita especulação se chegaremos a isso algum dia. Especialistas de alto nível afirmam que a IAG é um conceito teórico inatingível. As big techs apostam fortemente no sucesso, dizendo que isso acontecerá ainda nessa década. Mas não podemos esquecer que elas têm interesses comerciais em afirmações como essas.

Qualquer que seja esse desfecho, devemos nos manter atentos às oportunidades que essa tecnologia oferece, apropriando-nos do que ela pode nos oferecer de bom e nos mantendo vigilantes contra eventuais armadilhas que desenvolvimentos descuidados e usos pouco éticos possam colocar em nosso caminho.

Esse é um trabalho de educação digital importantíssimo, envolvendo empresas, instituições de ensino, governos e outros atores da sociedade civil. As pessoas precisam entender e se apropriar conscientemente da IA e seus agentes, e isso deve chegar a todos.

 

IA pode agravar situação de pessoas já marginalizadas digitalmente - Foto: Freepik/Creative Commons

A desigualdade social faz com que a mesma IA que impulsiona carreiras tire empregos

By | Tecnologia | No Comments

A inteligência artificial pode maximizar nossas habilidades, mas também amplia contradições de nosso tempo. Isso aparece com muita força no âmbito profissional.

Já se tornou quase um mantra do mercado dizer que as pessoas que não abraçarem essa tecnologia perderão os empregos para colegas que o fizerem, e é verdade. Mas ironicamente quem a usar também pode ir para o olho da rua, se não fizer isso direito.

Cria-se então uma zona de contato bastante estreita, entre um “superpoder” para voar aos céus da carreira e a queda em um abismo profissional resultante de uma má educação no uso da IA. E esse não é um mero exercício intelectual. Ela já aumenta, agora mesmo, as vantagens de muitos profissionais e empresas. Do outro lado, vemos cerca de 14% da população brasileira sem qualquer acesso à Internet.

Surgem alguns dilemas sociais profundos. Talvez algumas pessoas gostariam de simplesmente não usar essa tecnologia, e esse seria um direito legítimo. Mas ainda dá para se almejar isso? Na ponta oposta, outras desejariam aproveitá-la, mas estão completamente alijadas desses recursos. Como lhes garantir isso, que já se configura como um direito fundamental?

Quem está no topo da pirâmide social deve parar de olhar para a sociedade como se todos estivessem na mesma situação frente à IA. Existe uma muralha a ser transposta para que se tenha pelo menos algum acesso digital, mas o presente nos empurra para uma desigualdade ainda mais ostensiva. Esse é o dilema que precisa ser solucionado.


Veja esse artigo em vídeo:


Estudo da consultoria Gallup divulgado em outubro indicou que 45% dos profissionais que usam a IA disseram que ela melhorou sua produtividade e eficiência, 26% se disseram mais criativos e inovadores e 23% apontaram melhora nas suas entregas. Apesar disso, 67% dos profissionais entrevistados disseram que nunca usaram a IA no trabalho, e apenas 4% fazem isso diariamente.

Infelizmente o “buraco é mais embaixo”. A pesquisa TIC Domicílios 2023, publicada em novembro passado pelo Cetic.br, órgão de pesquisas ligado ao CGI.br (Comitê Gestor da Internet no Brasil), indicou que, apesar de os 156 milhões de usuários de Internet representarem um recorde de brasileiros conectados, 29,4 milhões de pessoas nunca ficaram online em nosso país.

É importante ressaltar que não basta apenas dar acesso à Internet e à IA: é preciso ensinar as pessoas a fazerem bom uso desses recursos. O levantamento do Cetic.br apontou uma clara correlação entre o uso da Internet e os graus de educação e de renda: dos 29,4 milhões de pessoas desconectadas no Brasil, 24 milhões têm apenas até o Ensino Fundamental e 17 milhões são das classes D ou E.

Os pesquisadores apontaram que o pleno aproveitamento das oportunidades online depende ainda da qualidade da conexão e de dispositivos adequados. Ele é maior entre quem fica online tanto pelo computador quanto pelo smartphone, frente aos que se conectam só por dispositivos móveis. E se 99% dos domicílios da classe A têm computador, isso acontece apenas em 11% dos das classes D e E.

Para se colocar isso na devida perspectiva, é preciso entender que a inteligência artificial generativa não se trata de só mais uma tecnologia, como tantas outras que são lançadas a todo momento. Ela efetivamente oferece a possibilidade de se ampliar as capacidades de qualquer um que esteja disposto a fazer um uso consciente dela.

Mas tanto poder também guarda armadilhas.

 

Benefícios e riscos

A IA generativa embute recursos muito bem-vindos. Certamente o que a distingue de todo o resto é a capacidade de nos entender e dar suas respostas em linguagem natural, como se estivéssemos falando com outra pessoa. Além disso, ela é capaz de processar quantidades imensuráveis de informação para encontrar respostas e padrões. Por fim, ela efetivamente aprende e melhora com o uso.

Essa combinação a torna extremamente poderosa e flexível. Mas nesse funcionamento quase mágico, reside um de seus maiores riscos.

Quando o ChatGPT foi lançado e assombrou o mundo há dois anos, muitos diziam que ele poderia gerar uma “geração de preguiçosos”. Passado esse breve período, esse medo pode estar se concretizando em algumas pessoas.

Assim como uma simples calculadora agiliza as operações matemáticas que fazemos, mas não nos dispensa de sabermos como realizá-las, a inteligência artificial, por mais incrível e eficiente que seja, não pode tirar de nós a compreensão do que está sendo feito e principalmente as decisões que tomemos a partir desses resultados.

Além disso, as entregas em si da IA generativa normalmente têm uma qualidade mediana (na melhor das hipóteses), sofrendo de repetições e estilos limitados. E há ainda o maior de seus problemas: as “alucinações”, quando, diante de não saber o que dizer, entrega absurdos como se fossem verdades, sem qualquer ressalva.

Outra grave falha é a privacidade dos dados, pois essas plataformas podem aprender e depois replicar para estranhos informações confidenciais que usemos com elas. E isso flerta com outro conhecido problema dessa tecnologia: a violação de direitos autorais de conteúdos usados durantes suas etapas de treinamento.

Entre os que já usam a IA profissionalmente, a maioria se descuida em pelo menos um desses problemas, quando não em todos. É nessa hora que a IA deixa de ser uma poderosa aliada e passa a ser uma ameaça. Apesar de serem falhas intrínsecas da tecnologia, os riscos vêm da má utilização pelas pessoas. A revolução da IA invadiu nossas vidas sem manual de instrução, e por isso usos indevidos aparecem a toda hora.

Pior que isso são aqueles que terceirizam sua criatividade e decisões para os robôs: esses profissionais se colocam na posição de dispensáveis. Afinal, se eles não acrescentam nada sobre o que a IA faz, então basta a máquina para fazer o trabalho!

Antes vistos em obras de ficção científica, esses agora são dilemas da vida real! As pessoas precisam ser educadas não apenas para aproveitar os incríveis benefícios da IA, mas também para não cair em suas armadilhas.

Empresas, escolas, mídia, governo devem cuidar disso, mas não podem esquecer daqueles que já são marginalizados digitais. Caso contrário, teremos, em bem pouco tempo, uma “casta” com “superpoderes da IA” e uma massa de pessoas cada vez mais inabilitadas profissionalmente pela mesma tecnologia.

 

Alfie (Lucien Laviscount) e Emily (Lily Collins), com a torre Eiffel ao fundo, em cena de “Emily em Paris” – Foto: reprodução

O que “Emily em Paris” diria sobre o câncer de mama

By | Tecnologia | No Comments

Que o apreço pela verdade anda em baixa, não é surpresa. Há muitos anos, a pós-verdade, aquela que prega que a versão dos fatos que interessam às pessoas é mais importante que os fatos em si, tornou-se uma muleta que justifica que pensem e façam o que quiserem, por mais absurdo que seja. Mas observo apreensivo uma nova fase dessa “paranoia coletiva”, em que alguns esperam que a própria realidade se curve aos seus devaneios, como se fossem o centro de seus próprios universos.

Isso se manifesta de maneira mais ou menos escancarada. Um dos exemplos mais emblemáticos e antigos é aquela turma que insiste que a Terra seja plana, contrariando evidências tão enormemente abundantes, que tornam essa crença caricata e patética.

Às vezes, esse descolamento da realidade se torna tragicômico. Por exemplo, a série “Emily em Paris”, sucesso adolescente da Netflix, mostra uma França “perfeita”, que parece gravitar em torno da torre Eiffel, sem moradores de rua, sujeira, crimes ou ratos. Disso surgiram turistas abobalhados que vão a Paris e ficam indignados quando descobrem que ela –como qualquer cidade– não é daquele jeito, e tem problemas!

Em outros casos, as consequências podem ser graves, como em episódios recentes no Brasil de uma médica afirmando nas redes sociais que o câncer de mama não existe e de um médico que disse que a doença pode ser causada por mamografias. Se o fato de profissionais de saúde dizerem algo que pode literalmente matar pessoas não fosse grave o suficiente, esses posts legitimaram que uma legião de pessoas que, por qualquer motivo “não acreditam na doença”, viesse a público “expor essa verdade”.

Os três exemplos, apesar de muito diferentes entre si, guardam uma raiz comum que corrói a sociedade há anos: quando qualquer um pode arrebanhar uma multidão com distorções deliberadas do real, os ganhos civilizatórios começam a colapsar.


Veja esse artigo em vídeo:


Uma pergunta que surge naturalmente é por que alguém comete um desatino desses?

O caso dos médicos é ilustrativo. Eles realmente acreditam naquilo, o que faria deles reprodutores inocentes de um processo anterior de desinformação, ou têm interesses próprios e, portanto, se configurariam como criadores? Os casos estão sendo investigados pelos respectivos Conselhos Regionais de Medicina. No caso da médica, ela também está sendo processada pelo Colégio Brasileiro de Radiologia.

O câncer de mama é a principal neoplasia maligna entre as brasileiras, com mais de 70 mil novos casos por ano por aqui. Em 2022, matou 19.130 mulheres no Brasil. Quanto à mamografia, ela é a principal forma de prevenção de mortes pela doença.

Também podemos aprender com “Emily em Paris”. A série conta a vida de uma jovem publicitária americana que desembarca na Cidade-Luz para trabalhar. Atrapalhada e bem-intencionada, ela colhe tanto vitórias no trabalho, quanto confusões em relacionamentos. Mas chama atenção as locações e figurinos brilhantes, novos, limpos, com cores saturadas. A protagonista sempre veste alta-costura, troca de roupa várias vezes a cada episódio e nunca repetiu um modelo em quatro temporadas no ar!

Pode-se argumentar –com razão– que se trata apenas de entretenimento. Os roteiristas da série não buscam promover a desinformação. Entretanto, acabam contribuindo para um caldo de degradação cognitiva de pessoas que cada vez menos toleram que a vida não seja como imaginam ou esperam. Perdem a capacidade de separar fantasia de realidade, e atacam quem lhes mostra os fatos.

Não se pode desprezar as causas e as consequências de nada disso.

 

Sociedade autodestrutiva

Um estudo de 2021 do instituto britânico Alan Turing detalhou como uma sociedade pode ameaçar a própria sobrevivência, com ataques deliberados à capacidade de se adquirir conhecimento. Para a líder do estudo, Elizabeth Seger, da Universidade de Cambridge, “mesmo que estivesse claro como salvar o mundo, um ecossistema de informações estragado e não-confiável poderia impedir que isso acontecesse”.

Segundo a pesquisa, há quatro ameaças a isso, e nenhuma ao acaso. A primeira são pessoas que atrapalham as decisões com desinformação, algumas agindo de maneira consciente, outras inocentemente. Há ainda um excesso de informação que sobrecarrega nossa concentração, dificultando separar verdades de mentiras. As pessoas também se acostumaram a rejeitar o que desafia suas ideias, particularmente se houver uma forte identidade no grupo, criando o que os pesquisadores chamaram de “racionalidade limitada”. E, por fim, as redes sociais tornaram mais difícil avaliar a confiabilidade das fontes. O estudo conclui que, quando não sabemos em quem acreditar, confiamos naquilo que nos mostra o mundo como queremos.

Há alguns dias, discordei do professor da Universidade de Oxford William Dutton. Ele acredita que as mídias digitais podem disseminar informações enviesadas, mas afirma que as pessoas não são passivas, podendo encontrar facilmente a verdade na Internet ou com amigos e familiares, se assim desejarem. Até diminuiu a importância dos “filtros de bolha”, a que chamou de um “mito tecnológico determinista”. Afirmou ainda que o problema não são as plataformas, e sim os usuários. “Se quiserem, então sabem que podem obter o que desejarem deste canal de televisão e deste site, e ficarão felizes”, acrescenta.

Outro estudo, organizado em 2017 pelo Conselho da Europa e liderado por Claire Wardle, da Universidade de Harvard, trata da “desordem informacional”. Ela se divide em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Também explica que é preciso considerar quem são os agentes (quem cria e distribui a mensagem, e qual sua motivação), as mensagens em si, e os intérpretes (quem as recebe e suas interpretações).

Essas pesquisas demonstram, entre tantas outras, que as pessoas não conseguem sair facilmente da desinformação, especialmente quando 47% dos brasileiros deliberadamente se recusam a consumir notícias, como demonstrou o Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. O estudo diz ainda que apenas 43% dos brasileiros confiam no noticiário, o pior índice já registrado no país.

Em um mundo antes da pós-verdade, a vida fantasiosa de Emily seria apenas deleite para os olhos. Mas no cenário de negação em que vivemos, ela inadvertidamente contribui para a desordem informacional. Ainda assim, a jovem personagem, que sempre busca o melhor para todos, jamais negaria a existência do câncer de mama! Pelo contrário: provavelmente encontraria uma forma genial de usar as redes sociais para a conscientização da sociedade para esse gravíssimo problema de saúde.