desinformação

Manifestantes afirmam que não se vacinar é “liberdade de escolha”, argumento comum de influenciadores antivacinas - Foto: reprodução

Influenciadores precisam deixar de ser foco de desinformação e se profissionalizar

By | Tecnologia | No Comments

O mercado de influenciadores pode estar diante de um sopro de seriedade. A ocupação cresce vertiginosamente há anos, graças à falsa ideia de que, para se tornar famoso e rico, basta ligar a câmera do celular e falar, mesmo não tendo qualquer preparo para tal. Agora isso pode mudar.

Vários países, inclusive o Brasil, estão criando leis para disciplinar, em maior ou menor escala, a atividade dos criadores de conteúdo digital. Pelo menos em tese, isso oferece algumas garantias a esses profissionais, assim como diminui práticas condenáveis, incluindo a desinformação (consciente ou não).

Essas regras ficam ainda mais importantes em tempos de inteligência artificial generativa. Graças a ela, pessoas sem qualquer conhecimento sobre determinado assunto conseguem produzir conteúdo que parece verdadeiro, mas que pode estar completamente errado. Como não são capazes de avaliar a produção da IA, passam a bobagem adiante, que pode ganhar grande escala e afetar decisivamente o público.

A OpenAI, criadora do ChatGPT, está atenta a isso. Desde novembro, ele oficialmente não oferece mais “aconselhamento” jurídico, financeiro ou sobre saúde, passando a se comportar menos como um “consultor” e mais como uma “ferramenta educacional”.

Segundo um estudo da organização de saúde americana KFF, 17% dos americanos adultos usam a IA todos os meses para informações sobre saúde (25% se tiverem menos de 30 anos), mas 56% deles não têm certeza se a informação é correta. Por isso, a mudança no ChatGPT visa evitar processos por informações erradas, mas ela impacta diretamente aqueles que usam o serviço para criar seus conteúdos digitais.

Influenciadores têm um papel central em como as pessoas se informam hoje, mas muitos seguidamente demonstram despreparo e até falhas éticas graves. Por isso, as novas regras são muito bem-vindas para profissionalizar essa atividade.


Veja esse artigo em vídeo:


No Brasil, a lei 15.325/2026, sancionada em 6 de janeiro, reconhece o “profissional de multimídia” como trabalhador multifuncional, apto a atuar em criação, produção, captação, edição, gestão e distribuição de conteúdos digitais em diversas plataformas, incluindo redes sociais, games, sites e animações. Profissionais de outras áreas que exerçam funções assim poderão pedir um aditivo em seu contrato de trabalho.

Apesar de dar reconhecimento jurídico à profissão, especialistas criticam a lei porque ela não exige nenhuma formação profissional, além de não possuir mecanismos de combate à desinformação ou deveres claros das plataformas. Isso significa que casos recentes de médicos passando informações falsas de saúde ou de influenciadores indicando apostas digitais como investimento continuarão inundando as redes.

Por outro lado, na China, desde outubro, criadores de conteúdo que queiram falar de finanças, educação, saúde ou área jurídica precisam comprovar qualificação formal na área. As plataformas digitais são obrigadas a coletar documentos que comprovem isso, verificar sua autenticidade e só então permitir esse tipo de conteúdo. Quem desrespeitar pode ter a conta suspensa, seu conteúdo apagado e receber multas que chegam a 100 mil yuans (cerca de R$ 75 mil).

O governo justifica a lei pelo alto volume de dicas enganosas, especialmente em saúde e investimentos, com o cidadão leigo não conseguindo distinguir entre um especialista e um influenciador. Assim, a influência deve deixar de ser só uma questão de popularidade e passa a se apoiar em capacitação comprovada. Isso é uma boa notícia para profissionais formados nessas áreas, que hoje concorrem com o carisma de influenciadores e até com charlatanismo digital. Por isso, analistas sugerem que esse tipo de lei pode inspirar outros países que enfrentam problemas semelhantes.

Alguma organização desse setor também pode ser encontrada em leis do Reino Unido, França, Itália, Espanha, Austrália, Nova Zelândia, Índia e Hong Kong, a maioria priorizando autorregulação com punições.

Não dá mesmo para continuar “deixando solto” um setor que, só no Brasil, “emprega” 10 milhões de autointitulados influenciadores com, pelo menos, mil seguidores. Segundo o banco Goldman Sachs, esse mercado deve movimentar quase US$ 500 bilhões (cerca de R$ 2,7 trilhões) até 2027, vindo principalmente de companhias com marketing de influência e pela monetização de plataformas de streaming ou de redes sociais.

 

Despreparo e falta de ética

De fato, grandes empresas vêm recorrendo cada vez mais a influenciadores para suas campanhas. Apesar de isso lhes garantir muita visibilidade, nem sempre o resultado é positivo, pois, ao contrário de veículos de comunicação, cujo mercado é bem regulamentado, os influenciadores se comportam como pessoas físicas sem regras. Por isso, suas ações às vezes questionáveis podem respingar na reputação das marcas.

Alguns casos emblemáticos no Brasil são o de Monark, que, em 2020, relativizou a existência de um partido nazista no país, o de Karol Conká, que apresentou um comportamento agressivo e humilhante na sua participação no Big Brother Brasil 21, ou o de Gabriela Pugliesi, que publicou um vídeo de uma festa que promoveu no momento mais crítico da pandemia de Covid-19, ironizando as regras sanitárias. Em todos eles, as companhias que os patrocinavam rescindiram contratos.

As empresas têm culpa no problema. Ao contratar influenciadores apenas pela sua exposição, ignoram o alinhamento dos valores da pessoa com os da marca. Em muitos casos, eles são conflitantes, e isso gera crises que poderiam ter sido evitadas.

Em dezembro, influenciadores de grande alcance fizeram um ataque coordenado contra o Banco Central e seus diretores, para proteger o Banco Master, que havia sido liquidado pela instituição. A maioria daqueles criadores faz publicações de fofocas, sem qualquer relação com finanças ou economia. O caso demonstrou como a falta de ética no segmento permite que se compre mecanismos para moldar a opinião pública.

Casos recentes de influenciadores de saúde vêm provocando grande prejuízo ao público, inclusive no Brasil. Além da promoção de produtos inócuos e até perigosos, médicos vêm atacando vacinas e protocolos consagrados, como a mamografia. Entre as consequências disso, está a queda da vacinação, levando ao aumento de doenças antes erradicadas, como o sarampo.

O fenômeno dos influenciadores criou a maior máquina de convencimento da história. Muito longe de configurar censura, disciplinar essa atividade é vital para que não nos afundemos ainda mais em todo tipo de desinformação, um problema que já foi banalizado. A sociedade precisa se organizar para que informações com base na ciência e bem apuradas se sobreponham ao despreparo e à falta de ética.

 

Imagens reais (à esquerda) e gerada por IA (à direita) do ditador Nicolás Maduro chegando preso a Nova York – Fotos: reprodução

Em um mundo dominado por IA, redes sociais e escroques, o jornalismo se torna essencial

By | Jornalismo, Tecnologia | No Comments

Este ano eleitoral mal começou e alguns acontecimentos já deixaram claro que a combinação de inteligência artificial, redes sociais, oportunismo e mau-caratismo enterraram a verdade em um bloco de concreto que o cidadão comum não consegue romper. Nesse cenário, o jornalismo surge como o contraponto urgente, e, por isso mesmo, sofre ataques de quem se beneficia da enorme mentirada.

O primeiro caso veio com a prisão de Nicolás Maduro, que desembarcou em Nova York usando um agasalho de uma famosa marca americana, que inundou as redes sociais com a foto do ditador venezuelano usando o seu produto. Até aí, é o marketing sendo marketing. Mas não se pode ignorar como isso capturou o debate digital com uma mensagem do tipo “preferida até pelos criminosos”. E houve ainda as incontáveis imagens falsas dessa prisão geradas por IA, aumentando a desinformação.

Pior que isso foi o recente ataque orquestrado nas mesmas redes sociais contra o Banco Central e autoridades financeiras envolvidas com a liquidação do Banco Master. Até perfis de fofoca tentaram tirar a legitimidade de uma ação bem-feita.

Há ainda as agressões contra a jornalista Malu Gaspar, de “O Globo”, por realizar seu trabalho jornalístico, ao apresentar fatos suspeitos envolvendo um ministro do Supremo Tribunal Federal (STF) e sua esposa com o mesmo banco. Esses atentados se enquadram em três categorias ou na combinação livre entre elas: desconhecimento do trabalho jornalístico, manipulação das massas ou má-fé de interessados no caso.

Qualquer que seja o motivo e diante do enorme barulho que esses temas estão criando, é preciso esclarecer como funciona o jornalismo e por que ele se torna, cada vez mais, essencial para a sociedade, especialmente com a proximidade das eleições.


Veja esse artigo em vídeo:


Os detratores de Gaspar afirmam que ela atua com interesses políticos, visando desmoralizar ministros do STF, e que ela faz acusações sem provas. Cabe então explicar como a imprensa funciona e por que ela é tão fundamental, especialmente em sociedades como a nossa, que se tornam tão obtusas por ações nas redes sociais.

Um jornalista investiga os fatos e eventualmente coleta informações que podem servir como provas, mas esse não é o seu trabalho. Quem produz provas é a autoridade policial, que pode ser provocada a agir por informações da imprensa. Mas o jornalista não é policial. Sem tais informações, talvez nunca houvesse investigação e justiça em um dado caso.

Um dos recursos mais valiosos dessa investigação são as fontes, pessoas que têm informações privilegiadas sobre um assunto e interesse em divulgá-las. Elas usam o jornalista para que aquilo ganhe notoriedade, enquanto o jornalista usa a fonte para obter informações valiosas que, de outra forma, continuariam restritas.

Shakespeare escreveu que “há mais coisas entre o céu e a terra do que sonha a tua filosofia.” Se hoje a sociedade busca a verdade nesse angu de caroço do Banco Master, é porque algumas pessoas sempre souberam de tudo nesses bastidores, e contaram pelo menos parte dela à jornalista, que deu visibilidade a essas informações, ampliadas depois por outros veículos, como o Estadão e a Folha.

Os agressores de Gaspar exigem que ela divulgue quem são essas pessoas, mas esse pedido é descabido. A despeito do seu interesse em divulgar o que sabem, muitas não podem aparecer, e esse anonimato é garantido pelo artigo 5º, inciso XIV da Constituição, que estabelece que “é assegurado a todos o acesso à informação e resguardado o sigilo da fonte, quando necessário ao exercício da profissão”. Sem essa proteção, muita gente guardaria para si informações importantes.

O grande desafio do jornalista é não ser manipulado por uma fonte, interessada em propagar uma mentira. O profissional deve confirmar que a informação é verdadeira e de interesse público. Em caso afirmativo, tem a obrigação de publicá-la, para que, dessa forma, a sociedade corrija imperfeições e melhore. Foi o que Gaspar fez. E, depois dela, uma enxurrada de fatos suspeitos ou mal explicados corroborou tudo.

Vale dizer que os que a acusam de interesses políticos são os mesmos que aplaudem a imprensa quando ela usa os mesmos métodos para expor falcatruas “do outro lado”. E a boa imprensa fiscaliza qualquer tipo de poder, não importa quem estiver lá.

 

Jornalismo versus redes sociais

De 15 anos para cá, aqueles que se beneficiam de uma sociedade sem essa visão emplacaram a ideia de que, com as redes sociais, o cidadão não precisaria mais da imprensa, pois teria acesso direto à origem dos fatos. Infelizmente boa parte da população comprou essa lorota. E casos como os que analisamos aqui demonstram que, enquanto o jornalismo profissional insiste em desenterrar a verdade, as redes sociais massacram a sociedade com mentiras.

Foi o que aconteceu no dia 27, em um ataque coordenado de perfis com milhões de seguidores contra instituições e autoridades ligadas à liquidação do Banco Master. Limitado a 36 horas, ele foi identificado pela Febraban e divulgado pelo Estadão. Alguns influenciadores vieram a público para dizer que lhes foi oferecido muito dinheiro para participar do ataque à reputação dos envolvidos. Vale dizer que muitos dos perfis envolvidos não tratam de finanças: a maioria se dedica a fofocas.

Como de costume, a massa alheia às notícias e com seus interesses cuidadosamente inflamados pelos produtores de desinformação repercutiu as mentiras. De novo, enquanto os jornalistas sérios informam, as redes sociais deformam. Infelizmente a manipulação é tão grande, que a turba não vê que se tornou massa de manobra.

Agora, com as eleições chegando, tudo isso se tornará café pequeno e as imagens falsas de Maduro parecerão piadinhas. A inteligência artificial não para de dar mostras de que infelizmente também se presta a refinar a desinformação, para que se torne absolutamente crível, incluindo aí a produção de fotos, áudios e até vídeos que retiram de cada um de nós a capacidade de identificar uma verdade diante de nossos olhos.

Nesse mundo de cacofonia extrema, pulverizado com armadilhas da “hipersuasão” descrita pelo filósofo da informação Luciano Floridi, em que a IA capta nossos valores e desejos mais íntimos para nos enganar, a curadoria cuidadosa de profissionais da imprensa desponta como esperança de fugirmos da manipulação. E isso vale para todo o espectro político, e não apenas um “lado”.

Afinal, se as redes sociais construíram seu negócio sobre a desinformação ruidosa e visceral disseminada por criminosos, os jornalistas sérios continuam tentando encontrar os fatos muito além das obviedades do nosso cotidiano, seja digital ou não.

 

O jornalista e pesquisador Rodrigo Mesquita, durante do evento “O jornalismo entre a sobrevivência e a relevância” - Foto: reprodução

Enquanto o digital achata a crítica, o jornalismo deve revalorizar o pensamento

By | Jornalismo | No Comments

Nunca tivemos tanto acesso à informação, mas nunca fomos tão manipulados. Em 15 anos, as big techs tomaram de assalto o debate público, sem qualquer contrapeso democrático, guiadas pela busca de lucro que atropela até o bem-estar dos usuários. Enquanto isso, o jornalismo, a instituição democrática mais talhada para impedir abusos de poder, perdeu seu papel de mediador. O resultado é um ambiente em que a verdade compete com a engenharia do engajamento e, na maioria das vezes, perde.

Esse foi o eixo do evento “O jornalismo entre a sobrevivência e a relevância”, que aconteceu no dia 13, organizado pelo Instituto de Estudos Avançados da USP. O debate foi construído a partir do artigo “Crise do jornalismo deixou terreno fértil para erosão da democracia”, do jornalista e pesquisador Rodrigo Mesquita, que lá estava.

A Internet comercial surgiu em 1995, com a promessa de ser um bem-vindo canal de comunicação democrático e desintermediado. Mas esse ideal idílico caiu por terra em poucos anos, com as plataformas digitais capturando, com seus algoritmos, desejos e sentimentos de toda a humanidade, transformando-os em uma máquina de convencimento eficientíssima, muito maior que a própria mídia, governos e religiões.

O jornalismo, que até então organizava a informação cotidiana do mundo e promovia o debate para que as pessoas construíssem sua sociedade, ficou paralisado. Por um misto de arrogância e incompreensão de que seu público não aceitava mais informação unilateral, ainda sofre para lhe oferecer uma experiência participativa.

A mídia também é um negócio, com poucas empresas importantes controlando muito do que se noticia. Mas elas obedecem a regras claras de funcionamento, que protegem a sociedade. As big techs, por outro lado, apesar de serem muitíssimo mais poderosas, não cansam de demonstrar seu desprezo por qualquer instrumento democrático que ameace minimamente seus lucros.

Diante disso, passa da hora de descobrirmos quem controla hoje a esfera pública e como fazer com que, seja lá quem for, necessariamente trabalhe para os cidadãos.


Veja esse artigo em vídeo:


“A informação deixou de ser um serviço público e passou a ser um insumo para modelos de negócios baseados na vigilância e na previsibilidade do comportamento humano”, afirmou Mesquita, em sua fala de abertura. Para ele, “o que está em jogo é mais do que a sobrevivência do jornalismo: é a reconstrução das formas de mediação que sustentam a democracia”.

E lembrou que, apesar de as big techs adotarem um discurso de neutralidade, seus algoritmos são exatamente o oposto disso. Eles manipulam o público em escala industrial, para garantir unicamente os seus interesses, recusando qualquer controle.

“Foi brutal a metamorfose das promessas de transparência e liberdade expressiva das redes sociais na disseminação do ódio, dos cancelamentos, da guerra cultural, das narrativas conspiratórias e dos extremos destrutivos”, acrescentou Lucia Santaella, professora da PUC-SP. Segundo a professora, uma autoridade global em semiótica, “tudo isso é aliado à monetização da presença, ao capitalismo comunicacional, que transforma qualquer virtude em manipulação consentida”.

Os diferentes pesquisadores que debateram o assunto em diversas mesas ao longo do dia concordam que essa distopia informacional reforça o valor social do jornalismo, mas reconhecem que ele atua em franca desvantagem. “As grandes redações ainda são referências de verificação e responsabilidade pública, essenciais para o debate democrático”, disse Mesquita. “Mas disputam atenção dentro de um sistema projetado não para informar, mas para reter o usuário no ciclo da monetização.”

“A arrogância impediu que as redações e as empresas entendessem o que vinha pela frente”, afirmou o jornalista Eugenio Bucci, professor da USP. “Mas à parte dessa face econômica e dessa face tecnológica, a crise da imprensa é uma crise de pensamento”, sugeriu.

De fato, quando o papel do jornalismo de ajudar a sociedade a se organizar com informações de qualidade se enfraquece, ele perde parte de sua razão de existir. Isso fortalece os grupos de poder que se beneficiam da desinformação e que, por isso, justamente combatem a imprensa.

 

Instituições sob ataque

O jornalismo é uma força civilizatória por oferecer elementos para que a sociedade se reconheça, converse consigo mesma e melhore a partir de informações confiáveis. As redes sociais, por sua vez, vampirizam a mesma sociedade, pois dependem de tecnologias de segmentação e de vigilância, que fragmentam a conversa pública e dissolvem o terreno comum da deliberação para construção de consensos.

Uma das maiores tragédias disso é observar diferentes instituições democráticas, como as universidades, representação política e até a Justiça, sendo forçadas a adotar essa lógica distorcida, para não serem alvejadas pelos seus públicos, polarizados e incendiados pelas redes sociais. E o jornalismo também sofre desse problema, quando critérios editoriais sérios são tragicamente subjugados por uma suposta “otimização do noticiário” que garanta audiência.

Assim, esses pilares sociais vêm sendo carcomidos pelo digital, perdendo sua essência e levando a própria democracia com eles. “Sem dispositivos concretos de accountability, toda a ética corre o risco de ser convertida em mero adereço discursivo, uma fachada moralizante que encobre, sem enfrentar, as estruturas que perpetuam as assimetrias”, afirmou Santaella. “O que se exige, em última instância, é uma prática que não apenas nomeie os problemas, mas que atue sobre eles com densidade política, coerência institucional e compromisso de cada um de nós.”

No mundo todo, e no Brasil com muita força, o meio digital se permitiu instrumentalizar para hostilidades a adversários, ataques ao jornalismo e deslegitimação de instituições. “Uma sociedade que não discute com base na razão e nos fatos os seus problemas comuns começa a discuti-los com base no fanatismo”, conclui Bucci.

Se a imprensa tivesse conseguido manter o seu papel de mediador social, a crise criada pela desinformação não teria sido tão grande. Basta observar os países escandinavos, que teimosamente combinam indicadores altos de qualidade de vida, felicidade do povo, ótima educação e uma imprensa forte e atuante.

Se desejamos resgatar uma sociedade mais civilizada e buscar uma vida melhor para todos, o jornalismo precisa deixar de ser apenas um produtor de conteúdos e retomar seu papel na reorganização da esfera pública em torno de vínculos mais legítimos e mediações mais civilizadas. Isso exige a sua reinvenção, tornando-se mais transparente e interativo, inclusive valendo-se dos recursos digitais, mas sem se submeter à lógica algorítmica.

Devemos entender que os cidadãos, mesmo os de bom nível educacional, não conseguem fazer frente ao controle das redes sociais, e isso tende a se agravar com a inteligência artificial. As big techs disfarçam seus interesses e a resistência feroz a qualquer tipo de regramento como se fossem “liberdade de expressão”. Essa é uma mentira perversa, pois faz muita gente atuar contra seus próprios interesses, em favor dos dessas empresas.

A sociedade precisa se organizar para que essa máscara caia, e os cidadãos possam usar os recursos digitais para seu benefício, sem pagar com sua própria autonomia e até saúde mental. Os mais diferentes atores sociais precisam se engajar nessa causa, incluindo, entre outros, governos e universidades.

O jornalismo, obviamente, tem papel central nisso, mas precisa fazer as suas próprias necessárias transformações. Como disse Mesquita, “essa é, em essência, a tarefa histórica do jornalismo no século XXI: reconstruir as bases cognitivas da democracia em um mundo mediado por máquinas”.

 

A personagem Marisa Maiô, criada por inteligência artificial, satiriza os programas de auditório - Foto: reprodução

Vídeos criados por IA atolam a sociedade no lamaçal da confiança na mentira

By | Jornalismo, Tecnologia | No Comments

Os mais recentes geradores de vídeo por inteligência artificial, lançados nas últimas semanas, põem o nosso discernimento à prova. Simplesmente não é mais possível saber o que é real! A impressionante capacidade de geração dessas plataformas permite que uma mentira suculenta se torne mais crível que uma verdade tristemente limitada pelos fatos, até para olhos treinados.

Isso era “crônica de uma morte anunciada”: todo mundo sabia que a tragédia aconteceria, mas ninguém fez nada para evitá-la. E se já não bastasse todo tipo de lixo produzido por IA sendo destacado pelos algoritmos das redes sociais (ao mesmo tempo que escondem bons conteúdos), esse recurso já é usado para enganar a população de maneira voraz, especialmente na política.

Já é bem ruim pessoas que não existem fazendo de tudo nos vídeos. Mais grave, entretanto, é ver, diante de nossos olhos, pessoas reais em atividades que nunca realizaram, muitas vezes comprometedoras.

Essa tecnologia já existe há algum tempo, mas, até então, seus desenvolvedores limitavam seu uso a pouquíssimos especialistas, enquanto buscavam maneiras para evitar que ela fosse usada indevidamente, uma precaução muito bem-vinda. Mas parece que agora mandaram os escrúpulos às favas, como se vê, aliás, em muitas outras atitudes das big techs desde o começo deste ano.

Quando tudo pode ser simulado com perfeição e quando passamos a desconfiar até do que é real, cria-se um ambiente de paranoia e cinismo. Essa erosão da confiança coletiva pode levar as pessoas a rejeitarem fatos documentados e a se refugiarem em teorias conspiratórias. E assim a democracia vai dando lugar à barbárie.


Veja esse artigo em vídeo:


A responsabilização é um ponto nevrálgico nesse dilema. Quem responde por um uso daninho dessa tecnologia: o criador do vídeo, a plataforma que o hospedou ou a empresa dona do algoritmo? Diante da ausência de regulamentação da inteligência artificial e das redes sociais, ninguém assume as falhas.

As big techs responsáveis por essas plataformas investem pesado no lobby para que tudo continue assim. Afinal, esse cenário de impunidade é muito bom para seu negócio, seja pela infinidade de conteúdos criados e distribuídos assim, seja pelo estímulo a um desenvolvimento descuidado dessas tecnologias. Para elas, quanto menos regras, melhor.

Claro que nem todos os vídeos criados com IA são nocivos. Um bom exemplo de seu uso para fins humorísticos são os programas da apresentadora Marisa Maiô. Criada como uma brincadeira para testar a tecnologia por Raony Phillips, a personagem satiriza programas de auditório e faz um enorme sucesso nas redes.

Apesar de sua proposta inofensiva, muita gente pode achar que ela é mesmo uma mulher e que seu programa passa em algum canal. Isso demonstra a responsabilidade dos criadores de conteúdo com o que geram com a inteligência artificial.

Em tese, todas essas plataformas possuem mecanismos para que não sejam usadas em práticas condenáveis, mas eles não garantem nada. Por isso, outro grave problema é o uso indevido da imagem de pessoas comuns retratadas em conteúdos pornográficos ou vexatórios, muitas vezes para extorsão ou vingança. Mesmo figuras públicas, que têm menos controle sobre sua imagem, enfrentam dificuldades para lidar com problemas derivados desses conteúdos, pela velocidade com que se espalham.

Não por acaso, em janeiro de 2024, o Fórum Econômico Mundial concluiu que a desinformação impulsionada por inteligência artificial será o risco mais severo para a humanidade nesse ano e no próximo.

 

Diversão e responsabilidade

Àqueles que defendem esse uso irrestrito da IA como um caminho inevitável do progresso, é preciso lembrar que inevitabilidade não justifica irresponsabilidade. O avanço tecnológico é constante, mas o modo como o usamos define os valores da sociedade que queremos construir.

Marisa Maiô e outras criações mostram o grande potencial da IA para a diversão, e isso atrai as massas. Não há nenhum problema em rir com gatinhos tocando Chopin no piano, mas essa banalização do irreal está destruindo a característica de documentação que o vídeo sempre teve, assim como já aconteceu com a fotografia.

Uma sociedade não se desenvolve sem ter algo para confiar. Se a qualidade técnica de um vídeo não servir mais de medida para isso, precisaremos encontrar outra.

O jornalismo profissional pode recuperar o posto de porto-seguro da informação, com trabalhos sérios de apuração e divulgação. Justamente ele, que vem sendo combatido há anos por aqueles que mais se beneficiam de usos criminosos dessas tecnologias, tentando se escudar depois na “liberdade de expressão”. Isso não é uma coincidência!

A imprensa precisa fazer a sua parte garantindo produtos de qualidade. Mas também é necessário que as pessoas recebam uma melhor educação midiática, que lhes permita diferenciar mais facilmente verdades de mentiras, mesmo as mais críveis.

A forma como uma tecnologia é concebida, distribuída e adotada carrega intencionalidades. Ao se criar uma ferramenta capaz de simular pessoas com perfeição, sem mecanismos nativos de identificação ou rastreio, a pretensão de neutralidade das big techs desaparece. A ética não pode ser um detalhe técnico, pois é a linha que separa a inovação do controle das massas.

A defesa de que essa tecnologia seja liberada sem critérios significa fechar os olhos para os desequilíbrios de poder. Ignorar os riscos ou tratá-los como “efeitos colaterais” do progresso é uma postura não apenas ingênua, mas perigosa. Afirmações sobre o uso irrestrito ser “inevitável” são maneiras cômodas de se eximir da responsabilidade.

Esse tipo de determinismo tecnológico ignora o fato de que toda inovação carrega consigo escolhas humanas, com impactos concretos sobre vidas, direitos e estruturas sociais. Assim como não permitimos o uso irrestrito de armas ou remédios, não dá para liberar tecnologias tão poderosas sem limites, critérios ou consequências.

Mas é o que está acontecendo, e deve acontecer cada vez mais, contando com aplausos de parte da população que insiste em ver apenas os inegáveis benefícios da tecnologia. Por isso, esses impactos devem ser amplamente discutidos. Afinal, não é porque ganhamos um carro superveloz que podemos abrir mão de seus freios. Se fizermos isso, não chegaremos vivos ao nosso destino.

 

Mitali Mukherjee, diretora do Reuters Institute, Richard Fletcher (centro) e Nic Newman, autores do Digital News Report - Foto: reprodução

Influenciadores e IA ocupam espaço deixado pelo jornalismo e ameaçam a verdade

By | Jornalismo | No Comments

Nunca consumimos tanta informação e nunca estivemos tão longe da verdade. Essa é uma das principais conclusões do Digital News Report, estudo sobre o jornalismo publicado anualmente pelo Reuters Institute, divulgado no dia 16. E essa constatação, longe de interessar apenas a profissionais de comunicação, exige ações de toda a sociedade.

A edição desse ano mostra que as pessoas continuam se informando cada vez mais pelo meio digital (especialmente smartphones) e menos por mídias tradicionais, uma tendência observada há uma década. Mas vale notar que, mesmo online, a imprensa perde espaço, enquanto influenciadores crescem. E pela primeira vez o estudo identificou o uso da inteligência artificial como fonte de noticiário, adotada por 7% dos entrevistados.

Apesar do crescimento desses influenciadores, com 44% dos jovens de 18 a 24 anos os considerando como sua principal fonte de notícias, 47% da população declara que eles são os maiores criadores e propagadores de informações falsas ou enganosas, equiparando-os a políticos. No caso da IA, 41% dizem que notícias geradas por robôs têm menos valor do que as produzidas por jornalistas, preferindo conteúdos com curadoria e apuração humana.

Estamos diante de um paradoxo inquietante: mesmo com 58% dos entrevistados se dizendo preocupados com sua capacidade de distinguir entre verdade e mentira, o público se informa cada vez mais por influenciadores.

Isso é grave, pois as pessoas, mais ou menos conscientemente, estão decidindo se informar por fontes que reconhecem oferecer conteúdo enviesado ou falso. Por outro lado, os jornalistas, mesmo buscando a verdade, não conseguem se conectar com o seu público como antes. E as duas coisas representam sérios riscos para a sociedade.


Veja esse artigo em vídeo:


O distanciamento entre jornalistas e público vem de fatores como linguagem distante, falta de empatia, excesso de negativismo, formatos rígidos, presença tímida nas redes e principalmente uma comunicação pensada de dentro para fora. A imprensa tradicional insiste em falar como instituição, enquanto os influenciadores falam como pessoas. E em um mundo da conexão emocional, isso faz toda a diferença.

Eles ganham espaço porque escutam, respondem, compartilham bastidores e se mostram vulneráveis. Se erram, pedem desculpas; se acertam, comemoram. Produzem com o público, e não para o público. Tudo isso cria um vínculo afetivo que o jornalismo tradicional perdeu ao manter a postura de “dono da verdade”. Lamentavelmente, o conteúdo veiculado por muitos desses influenciadores é superficial, errado ou deliberadamente enganoso. Mas, ainda assim, cativa.

Outro fenômeno preocupante é o da evasão informativa. Segundo o relatório, hoje 40% dos entrevistados evitam o noticiário propositalmente, contra 29% em 2017. Cansados do efeito negativo no seu humor (39%) e da sensação de estarem sobrecarregados pela quantidade de notícias (31%), eles preferem se alienar.

Essa tendência cresce mais entre os mais jovens e entre quem se sente emocionalmente impactado por notícias negativas. Só que esse abandono deliberado do jornalismo enfraquece não só os veículos, mas o senso coletivo de realidade.

O estudo indica que os mais velhos ainda buscam jornais, televisão e portais para se informar, enquanto os mais jovens preferem redes sociais, vídeos curtos e creators. E agora entra em cena a IA, com seus resumos sintéticos e sua lógica algorítmica, que entrega o que o usuário quer, e não o que ele precisa saber, jogando por terra o pilar do jornalismo de informar o que for necessário, mesmo que indesejado.

O resultado é uma sociedade cada vez mais fragmentada, onde diferentes grupos vivem realidades informativas completamente distintas.

 

No Brasil

No nosso país, apenas 42% dos brasileiros confiam na imprensa, 20 pontos a menos que em 2015, mas ainda dois pontos acima da média global. Isso se agrava pela nossa alta penetração de redes sociais, concentração da mídia e uma tradição histórica de desigualdade no acesso à educação midiática. O ambiente político polarizado também estimula a desinformação e a desconfiança generalizada.

O jornalismo sério, nesse contexto, enfrenta uma batalha árdua para continuar relevante, respeitado e economicamente viável. Apenas 18% dos 97 mil entrevistados de 28 países pagam por notícias; no Brasil, são 17%.

Parece uma causa perdida, mas o jornalismo não precisa se render ao sensacionalismo nem à superficialidade para reconquistar o público. Deve reaprender a se conectar com ele, com linguagens mais acessíveis e formatos diversificados. Precisa estar presente nos canais em que as pessoas estão, ouvir mais e explicar melhor. Significa ser transparente sobre métodos, admitir erros e mostrar por que cada notícia importa. E, acima de tudo, é fundamental resgatar a missão do jornalismo de ajudar a sociedade a entender o mundo com lucidez e agir com responsabilidade.

Essa reinvenção não deve acontecer apenas dentro das redações. O público também tem um papel crucial. É preciso desenvolver uma consciência crítica em relação à informação, questionando fontes, checando antes de compartilhar, buscando diferentes perspectivas. A alfabetização midiática precisa ser ensinada nas escolas, incentivada nas famílias e promovida em políticas públicas. Quando qualquer pessoa pode se tornar uma produtora de conteúdo, saber consumir informação com discernimento é tão importante quanto produzi-la com responsabilidade.

Se o jornalismo falhar em reestabelecer sua relevância, a democracia perde. Em um mundo marcado pela ascensão de governos populistas e autoritários, pelo ataque sistemático à verdade e pela manipulação do público, um jornalismo enfraquecido abre caminho para regimes opacos, para o pensamento único e para o ódio como método.

Reverter esse quadro é uma missão que cabe aos jornalistas, ao inovarem e se reconectarem com o público, mas essa função não é só eles. As plataformas digitais precisam assumir sua responsabilidade editorial e as instituições de ensino devem priorizar a educação midiática.

É preciso que todos nós entendamos que um jornalismo forte é sinônimo de uma democracia saudável. Não se trata de defender uma categoria profissional, mas sim da possibilidade de viver em uma sociedade livre, informada e capaz de decidir seu destino.

 

Donald Trump toma posse como presidente dos EUA pela segunda vez - Foto: Congresso americano/Creative Commons

Convicção, ignorância e interesses pisoteiam a verdade e mantêm pessoas nas trevas

By | Jornalismo | No Comments

No dia 16 de março, Any Awuada, pseudônimo de Nayara Macedo, ganhou grande destaque nas redes sociais por um vídeo em que disse que não engravidaria do jogador Neymar, com quem afirmou ter tido relações sexuais no Carnaval, por ter urinado logo após o sexo. Adultos se relacionam como e com quem quiserem. Mas afirmar, em um vídeo visto por milhões, de pessoas que a urina impede uma gravidez é uma irresponsabilidade inominável, pois muita gente acreditará nisso e passará a usar o próprio xixi como método anticoncepcional, o que evidentemente é falso.

Esse é só um exemplo recente da pilha interminável de mentiras que se acumulam nas redes sociais, mas que podem passar a ser encaradas como verdadeiras, pela visibilidade digital de seus autores. Alguns promovem os engodos por convicção, outros fazem por ignorância. Mas há também aqueles que pisoteiam a verdade porque têm interesses por trás daquilo, normalmente econômicos ou políticos.

O maior exemplo de embusteiro compulsivo beneficiado pelo meio digital é o atual presidente dos EUA, Donald Trump, amplamente conhecido por mentir despudoradamente para atingir seus objetivos. Apesar de, como líder da nação mais poderosa do mundo, estampar as manchetes de veículos de comunicação o tempo todo, ele continua usando o meio digital para espalhar suas desinformações mais absurdas, escapando do crivo dos jornalistas.

A enorme penetração das redes sociais, a falta de responsabilização dessas plataformas por ativamente promoverem mentiras, e os maus exemplos de governantes e celebridades continuam esgarçando o tecido social e criando novas gerações de propagadores de desinformação, que veem nisso uma forma de ascensão pela fama e pelo dinheiro. E as consequências sociais são gravíssimas.


Veja esse artigo em vídeo:


As redes sociais há muito se tornaram a principal fonte de consumo de informação boa e ruim no Brasil e no mundo. A pesquisa “Retrospectiva Digital 2024: Definindo o rumo para 2025”, publicado pela consultoria Comscore no dia 25 de março, indica que o Brasil tem 131 milhões de internautas, que gastaram 70 bilhões de horas no ano passado em redes sociais, contra apenas 1,1 bilhão em sites e aplicativos de notícias.

Trump sabe muito bem o poder disso, por isso explora a desinformação. Uma das mais perversas é a que relaciona vacinas a autismo. Essa mentira surgiu em 1998, quando o médico inglês Andrew Wakefield publicou um artigo na revista “The Lancet”, sugerindo essa relação com a vacina tríplice viral. O estudo foi formalmente retratado pela publicação em 2010, pois o autor havia manipulado dados para sustentar suas conclusões. Investigações revelaram que ele tinha conflitos de interesse, incluindo patentes de uma vacina concorrente e vínculos financeiros com advogados de famílias processando fabricantes de vacinas. Wakefield acabou perdendo sua licença médica.

Embora a relação entre vacinas e autismo tenha sido refutada por estudos científicos sérios, o artigo foi devastador. Ele fortaleceu o movimento global contra vacinas, levando à queda na vacinação e ao ressurgimento de doenças evitáveis. Um exemplo emblemático é o do sarampo. A doença havia sido declarada eliminada nos EUA no ano 2000, mas ressurgiu com força graças a esses movimentos, especialmente nos Estados do Texas e do Novo México, onde eles são mais influentes.

Trump capitaliza o medo dos imunizantes para angariar votos de quem acredita nessa teoria desmentida. Tanto que, para reforçar sua retórica, ele nomeou, no seu segundo mandato, Robert Kennedy Jr., um conhecido ativista antivacinação, para liderar o Departamento de Saúde e Serviços Humanos dos EUA.

Pela sua posição, Trump tem o maior megafone do mundo, e isso influencia multidões pelo globo, que abraçam a desinformação. Isso acontece até com profissionais de uma determinada área, que atacam a própria ciência. Por exemplo, em outubro, aqui no Brasil, uma médica afirmou nas redes sociais que o câncer de mama não existe e um médico disse que a doença pode ser causada por mamografias. Ainda mais por serem médicos, essas declarações legitimaram crenças de uma legião de pessoas que, por qualquer motivo “não acreditam na doença”. Ambos respondem por investigações dos Conselhos de Medicina e processos.

 

“Me engana que eu gosto”

Em 2021, o instituto britânico Alan Turing publicou um estudo sobre como uma sociedade ameaça a própria sobrevivência com ataques deliberados à capacidade de adquirir conhecimento. A líder dos pesquisadores, Elizabeth Seger, da Universidade de Cambridge, explicou que, “mesmo que estivesse claro como salvar o mundo, um ecossistema de informações estragado e não-confiável poderia impedir que isso acontecesse”. Isso surge da desinformação (intencional ou não), do excesso de informação, da rejeição ao que contraria crenças do grupo e da dificuldade de julgar fontes nas redes. No fim, as pessoas confiam no que reforça sua visão de mundo.

Outro estudo, publicado em 2017 pelo Conselho da Europa e liderado por Claire Wardle, da Universidade de Harvard, detalha a “desordem informacional”. Ela se divide em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Também explica que é preciso considerar quem são os agentes (quem cria e distribui a mensagem, e qual sua motivação), as mensagens em si e os intérpretes (quem as recebe e suas interpretações).

Isso afeta pessoas de todas as idades, grupos sociais e níveis educacionais. Os promotores da desinformação combatem a educação e a imprensa, que são contrárias aos seus interesses. Infelizmente são bem-sucedidos: o Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford, mostrou que 47% dos brasileiros deliberadamente se recusam a consumir notícias, e que apenas 43% confiam no noticiário, o pior índice já registrado no país.

Em seu livro “A Manipulação da Verdade” (Contexto, 2022), o destacado linguista francês Patrick Charaudeau afirma que “uma indiferença pela verdade, que se tornou ‘não essencial’, seria a marca registrada de nossa era pós-moderna”. E conclui que “o desafio não está mais em acreditar ou não acreditar, está no sucesso do fazer crer.”

Em um cenário em que as plataformas digitais fazem vista grossa e até, em alguns casos, incentivam a desinformação para aumentar seus lucros, em que legisladores se furtam a criar leis para combater esse mal, em que governantes a praticam diariamente, e em que influenciadores normalizam a prática irresponsavelmente, cabe a cada um de nós encontrar maneiras de nos informarmos melhor e de reforçarmos nosso senso crítico. Caso contrário, veremos mais e mais crianças nascendo porque seus pais acharam que a gravidez teria sido evitada com uma ida ao banheiro.

 

Donald Trump toma posse como presidente dos EUA pela segunda vez - Foto: Congresso americano/Creative Commons

O resgate da civilidade digital depende de cada um de nós

By | Jornalismo, Tecnologia | No Comments

Com a posse para seu segundo mandato como presidente dos EUA, Donald Trump, um notório valentão que faz de agressões, desqualificações e fake news ferramentas do cotidiano, iniciou uma nova fase de deterioração da convivência online. Com a adesão explícita das big techs a essa agenda, o processo deve se ampliar exponencialmente. Isso seria grave o suficiente por si só. Mas em um mundo dominado por redes sociais, o maior risco vem do exército voluntário que amplia seus métodos para além dos limites do digital, esgarçando a própria trama da sociedade.

Há aqueles que se alinham a esse movimento e participam ativamente dele. Existem os que acham tudo “normal”, e acabam espalhando o conteúdo nocivo alegremente, com um entendimento distorcido da liberdade de expressão. E tem os que parecem não se importar com nada e acabam fazendo isso de forma inconsciente.

Não há nada de “normal” ou inocente nisso! Promover o ódio, cercear pensamentos diferentes, atacar grupos sociais, roubar identidades, expor pessoas estão entre os piores comportamentos de nosso tempo. Além da brutal violência psíquica e até física contra as vítimas, isso pode acabar com o debate público: em um meio inseguro e agressivo, as pessoas ficam desencorajadas a expor suas ideias construtivamente. E assim a democracia se enfraquece e os valentões ganham poder.

Pelo seu grande público e influência, jornalistas e criadores de conteúdo digital têm obrigação de combater essas práticas. Mas não são suficientes para eliminar esse mal. A sociedade só reencontrará um caminho sustentável de desenvolvimento quando cada um se empenhar em promover um ambiente digital civilizado.


Veja esse artigo em vídeo:


Não é uma tarefa simples ou pequena. Infelizmente muitos que propõem uma convivência harmônica e construtiva no meio online acabam sendo agredidos por aqueles que se beneficiam do ódio e da polarização, em uma tentativa explícita de silenciá-los. Por isso mesmo, não se devem deixar intimidar.

Mas há boas maneiras para se lidar com esses “trolls da política digital”. Fazer as escolhas certas diferencia entre uma explosão de ódio e uma contenção da violência pela racionalidade e pela empatia.

Como mencionado anteriormente, nada disso é protegido pela liberdade de expressão. O artigo 5º da Constituição Federal, que trata dos direitos e garantias fundamentais, determina, em seu inciso IV, que “é livre a manifestação do pensamento, sendo vedado o anonimato.” Isso assegura que se possa dizer o que quiser, mas, ao mesmo tempo, determina que os responsáveis por violações de direitos como honra, imagem ou privacidade, ou que cometam outros crimes sejam identificados e punidos.

Muitos argumentam que querem ter a liberdade de falar nas redes as maiores barbaridades, e que depois a Justiça que cuide das punições. Isso seria aceitável se o Judiciário tivesse capacidade infinita de julgar e punir todas as violações, o que está muito longe de acontecer. Assim essa proposta, travestida de liberdade, não passa de um subterfúgio para se cometer esses crimes impunemente.

Os ataques online se unem a outras formas de violência, como as direcionadas a grupos específicos, como mulheres, negros, pessoas com deficiência e LGBTQIA+, que vivem em determinada região ou professem uma fé específica. É comum que essas características sejam usadas para inflamar o ódio e ampliar a desinformação, para que o valentão atinja objetivos que não têm nada a ver com a situação da vítima.

 

Não alimentem os “trolls”

O ataque dos “trolls digitais” não pode ser classificado como mera contraposição de ideias divergentes (como costumam se defender), porque eles não aceitam o debate. Visam apenas desestabilizar sua vítima e prejudicar a troca saudável de argumentos.

Isso foi perfeitamente descrito em 1945 pelo austríaco Karl Popper (1902-1994) com seu “paradoxo da tolerância”, no best-seller “A Sociedade Aberta e Seus Inimigos”. Segundo ele “a tolerância ilimitada leva ao desaparecimento da tolerância”. O filósofo explicava que “se não estivermos preparados para defender a sociedade do assalto da intolerância, então os tolerantes serão destruídos e a tolerância com eles”.

Para ele, as filosofias intolerantes devem ser combatidas com argumentos racionais e mantidas em xeque frente à opinião pública. Mas alertava que os intolerantes não lidam com a razão, “a começar por criticarem todos os argumentos e proibindo seus seguidores de ouvir argumentos racionais, porque são enganadores e os ensinam a responder aos argumentos com punhos ou pistolas”. E sugeria que “devemos exigir que qualquer movimento que pregue a intolerância fique fora da lei e que qualquer incitação à intolerância e perseguição seja considerada criminosa”.

Popper queria evitar algo que se observa muito hoje. Formadores de opinião e pessoas comuns se afastam do debate público com medo dos “trolls”. Quando isso acontece, as ideias dos valentões evoluem para uma sociedade totalitária, em que os que não se alinharem ao grupo violento perdem gradualmente seus direitos.

Deve-se tomar cuidado ao responder aos “trolls”. Um confronto direto é tudo que eles querem, pois isso valida seus métodos e cria novos valentões. Além disso, o embate tende a normalizar o discurso violento e banalizar suas pautas excludentes.

Às vezes, deixar o “troll” falando sozinho é o melhor a se fazer. O problema é que, nas redes sociais, alguém pode amplificar os ataques desnecessariamente. Nesse caso, o silêncio pode não servir mais. A violência deve então, de maneira constante e resiliente, ser combatida com ética, sensatez e propostas construtivas.

Em 1947, Winston Churchill disse: “Ninguém espera que a democracia seja perfeita ou infalível. Na verdade, tem sido dito que a democracia é a pior forma de governo, excetuando-se todas as demais formas.” O ex-primeiro-ministro do Reino Unido, considerado um dos maiores estadistas da história, sabia que a democracia só funciona bem pela contraposição de ideias. Mas isso só é válido quando pessoas com ideias diferentes não apenas conseguem conviver entre si, como ainda constroem juntas uma sociedade, em nome de um bem maior.

Diante do avanço de governos encabeçados por valentões de qualquer ideologia, que sistematicamente silenciam ideias diferentes das suas, as sociedades precisam reforçar a educação digital e midiática. A primeira permitirá que seus cidadãos saibam usar adequadamente os recursos digitais para uma vida melhor; a segunda, que desenvolvam um senso crítico refinado, informem-se melhor e fiquem menos suscetíveis à desinformação e à brutalidade dos “trolls”.

Mas acima de tudo, precisamos urgentemente resgatar nossa humanidade e nossa capacidade de sermos empáticos, inclusive com quem não conhecemos. É assim que verdadeiramente se derrota um valentão.

 

Mark Zuckerberg, CEO da Meta, durante anúncio de medidas como o fim da moderação de conteúdo em suas redes - Foto: reprodução

Por que a guinada de Zuckerberg sobre conteúdo é uma tragédia social

By | Jornalismo, Tecnologia | No Comments

A grande notícia no mundo digital na semana passada foi o cavalo de pau que Mark Zuckerberg deu na política de moderação de conteúdo da Meta, afetando Facebook, Instagram e Threads. Com um intenso alinhamento às ideias do presidente eleito dos EUA, Donald Trump, as medidas levantam preocupações legítimas sobre como isso impactará a qualidade das entregas das redes sociais e a própria democracia.

Especialistas diversos afirmam que o nível das publicações e dos debates nessas redes deve cair dramaticamente, empobrecendo seu papel social e corroendo a credibilidade da empresa. Pela sua descomunal penetração, isso deve agravar a polarização na sociedade. E a disposição manifestada pelo seu CEO de ativamente afrontar governos que contrariarem seus interesses pode desestabilizar nações.

Esse é o ponto mais grave desse movimento. Executivos das big techs cada vez mais se dão o direito de se colocar acima da lei e de valores, não apenas dos EUA, mas de países muito diferentes. Com uma grotesca distorção do conceito de liberdade de expressão, ameaçam a estabilidade social, uma influência nefasta e indevida nunca vista na história, que impõe seus interesses pessoais sobre populações inteiras.

Essa é uma perigosíssima nova ordem mundial que precisa ser combatida, sob o risco de desaguarmos em uma barbárie onde ninguém mais se respeite, colocando o próprio conceito de sociedade em risco.


Veja esse artigo em vídeo:


As políticas de moderação da Meta surgiram com o escândalo da Cambridge Analytica, que estourou em março de 2018. Os jornais “The Guardian” e “The New York Times” demonstraram que essa empresa coletou dados de 87 milhões de usuários do Facebook sem seu consentimento, para influenciar a primeira eleição de Trump e o referendo do Brexit, ambos em 2016. Isso escancarou a manipulação das redes, e o Facebook foi acusado pelo Congresso americano de não proteger seus usuários desse controle.

Trump, que teve suas contas no Facebook e no Instagram suspensas em 2021 por incitar a violência que levou à invasão do Capitólio no dia 6 de janeiro daquele ano, comemorou o novo posicionamento da Meta. Em entrevista após o anúncio, disse, sem nenhum constrangimento, que provavelmente sua ameaça de prisão perpétua a Zuckerberg no ano passado pode ter pesado nessa decisão.

Mas não sejamos inocentes: o alinhamento dessas empresas a Trump lhes trará muitos benefícios. E com seu virtual controle dos três Poderes no país, as ameaças sobre as big techs que se unirem a ele tendem a desaparecer. “Na verdade, elas nunca quiseram combater desinformação”, explica Pollyana Ferrari, pesquisadora em mídias e professora da PUC-SP. “Eram mais ações isoladas para dizer que faziam algo, porém agora os bilionários não precisam mais disfarçar seus objetivos.”

“Em 2017, Chris Cox, então diretor de produtos do Facebook, descobriu que havia uma correlação entre maximizar o envolvimento do usuário e inflamar as tensões, e que reduzir a polarização significaria prejudicar o engajamento”, relembra Magaly Prado, pesquisadora do Instituto de Estudos Avançados da USP. Então, mesmo sabendo que algumas eram “anticrescimento”, propôs várias soluções, mas elas não foram implantadas. “As big techs que abrigam as redes sociais não estão nem aí com as pessoas que eles costumam chamar de usuários”, acrescenta.

O anúncio de Zuckerberg provocou protestos de especialistas do mundo todo, que pedem que as mudanças sejam revertidas. Em resposta, a Meta tomou mais medidas na mesma linha, como acabar com seu programa de Diversidade e Inclusão.

“O mais preocupante não é apenas o fim do programa de checagem, mas o fato de que Zuckerberg encerrou essa iniciativa com um ataque perigoso e infundado a um trabalho que vinha sendo feito de forma criteriosa”, diz Clara Becker, jornalista especializada em desinformação e diretora da ONG de educação midiática Redes Cordiais. “Em vez de fortalecer o combate à desinformação, a Meta escolheu um caminho que descredibiliza os esforços existentes e agrava ainda mais o cenário de manipulação e polarização nas plataformas”, alerta.

 

O que Zuckerberg quer?

Ao se alinhar aos interesses de Trump, o CEO da Meta espera diminuir seus custos e ganhar um aliado para combater países que ameaçarem seus negócios, além de apoio contra pressões políticas e legais domésticas.

“Atuar contra regulações locais pode ser percebido como uma forma de neocolonialismo digital, prejudicando a autonomia de países e minando a confiança em governança global”, adverte Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). Para ele, “promover políticas alinhadas exclusivamente a interesses americanos pode agravar tensões globais e alimentar narrativas antidemocráticas”.

Zuckerberg quer fazer o que bem entender na sua companhia, o que, a princípio, é seu direito. Mas redes sociais não são empresas como outras, pela sua absurda influência sobre o mundo! Portanto, dizer que defende a liberdade de expressão é, no mínimo, hipócrita, pois ninguém sabe como seus algoritmos promovem e escondem o que quiserem.

“O discurso de garantir a liberdade de expressão é falacioso, na medida em que a remoção de conteúdos inverídicos, falseados, criminosos não configura censura”, explica Crespo. “No Brasil, não há liberdade plena de expressão, por isso a Constituição determina que é vedado o anonimato, justamente para responsabilizar quem cometer abusos.”

Duas situações podem surgir disso. Na primeira, governos, Justiça, empresas e outros membros da sociedade reagem para elaborar regras equilibradas para evitar a desinformação, exigindo uma responsabilidade e uma transparência que as redes sociais nunca tiveram, o que seria muito positivo. Na outra, ruim, a proposta de Zuckerberg avança e seus algoritmos privilegiam lucros ao invés de segurança, explodindo os conteúdos nocivos, como aconteceu no X de Elon Musk, criando sociedades instáveis, em que as pessoas não concordam, nem constroem coisas juntas. Por isso, segundo Prado, “é inevitável e fundamental que possamos debater a justiça dos dados, as leis que vão reger quem provoca o distúrbio informacional”.

“A moderação de conteúdo é um dos grandes desafios do século XXI, e não há sistema infalível para lidar com desinformação e discurso de ódio”, afirma Becker. “O cenário ideal seria aquele que promove um equilíbrio entre liberdade de expressão e responsabilidade, garantindo que conteúdos enganosos, discursos de ódio e incitações à violência ou discriminação sejam eficazmente controlados”, conclui.

A desinformação deve ser combatida com boa informação. Quando Zuckerberg confirma a anarquia das redes sociais, isso reforça a importância do jornalismo e da checagem de fatos profissionais. Mas infelizmente eles não são suficientes, pois os algoritmos continuarão promovendo o conteúdo nocivo, que lhe é mais lucrativo.

Por tudo isso, deve-se exigir mais transparência das plataformas, ao invés de aceitar o contrário, que nos está sendo imposto. A verdade não pode ser opcional, devendo ser cuidada por todos como um bem público, ou corremos o risco de ter consolidado um animalesco Estado sob a lei do mais forte.

 

Influenciadores dominam a linguagem das redes, mas a maioria não checa as informações que publica - Foto: Freepik/Creative Commons

Influenciadores promovem desinformação por amadorismo e descuido

By | Jornalismo | No Comments

Que as redes sociais são o grande vetor da desinformação, não é novidade. Mas em tempos em que o Supremo Tribunal Federal (STF) discute se essas plataformas têm responsabilidade sobre conteúdos nocivos em suas páginas, precisamos entender as motivações que levam alguém a fazer isso. Nesse cenário, os influenciadores digitais desempenham um papel central, pelo seu poder de persuasão de grandes plateias.

Existem aqueles que conscientemente propagam informações falsas, e esses devem ser combatidos. Mas o estudo “Por Trás das Telas”, publicado no dia 26 de novembro pela Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) mostra que muitos fazem isso sem intenção, por amadorismo ou descuido.

Realizada com 500 influenciadores de 45 países, incluindo o Brasil, a pesquisa indica que apenas 36,9% dos influenciadores verificam a correção das informações que publicam. Além disso, 41,7% deles consideram curtidas e visualizações como o principal critério de credibilidade de suas fontes.

Esses dois números deixam claro que eles podem ser facilmente manipulados pelos criadores de desinformação, agravando o problema. A boa notícia é que 73% demonstraram interesse em serem treinados para melhorarem em sua atividade.

Apesar dos ataques daqueles que se beneficiam da desinformação, a imprensa ainda goza de boa credibilidade com a maior parte da população. Mas há anos ela não está mais sozinha no processo informativo, dividindo esse espaço com os influenciadores.

Seria ótimo que esses dois grupos trabalhassem juntos, mas parecem viver em mundos distintos. É uma pena, pois o público se informa por ambos, cada um com suas vantagens e desvantagens.


Veja esse artigo em vídeo:


O estudo aponta que apenas 36,9% dos influenciadores digitais se informam pela imprensa, a mesma quantidade dos que fazem isso a partir de fontes online que não sejam da mídia profissional. Sua principal “fonte” é a própria experiência (58,1%), seguido por pesquisas e entrevistas próprias (38,7%).

Para os influenciadores, as já citadas curtidas e visualizações de longe dão mais credibilidade a uma fonte. Depois vem a simples confiança em um amigo ou especialista (20,6%), seguida de perto pela reputação do autor (19,4%). Documentações são usadas apenas por 17,0% dos influenciadores.

Se apenas 4 entre 10 deles checam as informações antes de publicá-las, 33,5% publicam sem checar se confiarem na fonte. Outros 15,8% publicam sem verificar se considerarem o conteúdo divertido ou útil. Por fim 13,2% checam apenas se o que compartilharem for uma notícia.

Vale dizer que 59,0% desconhecem ou apenas ouviram falar de regras relacionadas às comunicações digitais e 56,4% conhecem treinamentos voltados para eles, mas só 13,9% desses participaram de algum. Isso faz com que saibam pouco sobre seus direitos e deveres como produtores de conteúdo, o que facilita com que 32,3% sofram com discursos de ódio nas redes. Tudo fica mais grave quando se pensa que ganhar dinheiro é a principal motivação de um quarto deles.

O estudo considera que alguém com mais de mil seguidores já pode ser considerado um seguidor, mas 68,0% dos entrevistados tinham até 10 mil seguidores. Desse valor a 100 mil seguidores, eram 25,0%. Apenas 1,6% tinham mais de 1 milhão de seguidores. A rede preferida é o Instagram (34,0%), seguido pelo Facebook (25,0%), o TikTok (16,4%) e YouTube (9%).

A categoria mais popular é de “moda e estio de vida” (39,3%). Na sequência, vêm “beleza” e “viagem e comida” (ambos com 34,0%), “jogos” (29,0%) e “comédia” (27,1%). Os estilos mais populares de publicações são “coisas bonitas” (18,0%), “entretenimento e memes” (15,6%) e “recomendações” (13,8%).

Ao contrário da imprensa, que, a despeito de imperfeições, segue regras rígidas para produção de conteúdo, esse amadorismo dos influenciadores representa um sério ponto de atenção.

 

“Desordem informacional”

Em 2017, um estudo do Conselho da Europa e da Universidade de Harvard classificou a “desordem informacional” em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Influenciadores, muitas vezes, se encontram na segunda categoria, quando espalham informações incorretas por confiarem em fontes ruins ou por não saberem como verificar uma informação.

O instituto britânico Alan Turing detalhou em 2021 como uma sociedade pode ameaçar a própria sobrevivência com ataques deliberados à aquisição de conhecimento. Segundo a pesquisa, há quatro ameaças a isso, nenhuma ao acaso. A primeira são pessoas que atrapalham as decisões com desinformação, de maneira consciente ou não. Há também o excesso de informação, que atrapalha as pessoas na separação de verdades e mentiras. Elas também se acostumaram a rejeitar o que desafia suas ideias, particularmente se houver uma forte identidade no grupo. E, por fim, as redes sociais tornaram mais difícil avaliar a confiabilidade das fontes.

A pesquisa conclui que, quando não sabemos em quem acreditar, confiamos naquilo que nos mostra o mundo como queremos. Novamente os influenciadores podem se tornar ferramentas poderosas para a desinformação, mesmo inconscientemente.

Infelizmente as perspectivas de melhora desse quadro não são animadoras, diante da resistência das redes sociais de sofrerem qualquer tipo de responsabilização e do persistente amadorismo dos influenciadores. A colaboração desses profissionais com jornalistas, atuando de maneira complementar, traria grande benefício à sociedade.

Os influenciadores têm alcance e confiança de seus seguidores, além de dominar a linguagem das plataformas digitais. Já os jornalistas possuem ética e técnica para produzir informações precisas e contextualizadas. Uma parceria efetiva entre essas comunidades poderia não apenas mitigar os impactos da desinformação, como fortalecer a confiança no ecossistema informacional.

Infelizmente isso esbarra em barreiras culturais e estruturais. Influenciadores priorizam sua autonomia criativa, e podem ver jornalistas como representantes de um modelo de comunicação pouco dinâmico e distante da realidade das redes. Jornalistas, por sua vez, frequentemente subestimam a capacidade dos influenciadores de se adaptarem às boas práticas jornalísticas.

A desinformação é um dos maiores desafios dessa geração. Ela sempre existiu, mas as redes sociais transformaram o que antes não passava de fofocas restritas em uma indústria milionária de distorção da realidade. Apesar desse fenômeno digital ter menos de uma década, já provocou danos irreparáveis no mundo.

A solução desse problema depende de todos nós, começando por escolhermos fontes confiáveis de informação. O estudo da Unesco mostra que, se influenciadores e jornalistas conseguissem juntar forças criativamente, poderiam construir ambientes informacionais mais saudáveis, transparentes e comprometido com a verdade.

A sociedade agradecerá muito se isso acontecer!

 

O Parlamento Australiano, que aprovou uma lei que proíbe menores de 16 anos nas redes sociais - Foto: Dietmar Rabich/Creative Commons

Austrália põe fogo no debate ao proibir redes sociais para menores de 16 anos

By | Tecnologia | No Comments

Enquanto o Supremo Tribunal Federal (STF) debate regras mais rígidas para as redes sociais no Brasil, a Austrália “pôs fogo” no debate ao aprovar, no último dia 28, uma lei que sumariamente proíbe o uso dessas plataformas por qualquer pessoa com menos de 16 anos. E a responsabilidade para isso não acontecer recai sobre essas empresas, sob pena de multas equivalentes a quase R$ 200 milhões.

Apesar de restrições às redes sociais serem debatidas no mundo todo, essa é a primeira legislação que impede seu uso por crianças e adolescentes em qualquer situação. Ela também inova por atribuir às big techs a função de “porteiro”.

A lei despertou aplausos e gritarias. Especialistas afirmam que a iniciativa representa um passo importante para proteger os mais jovens de sérios riscos a que são expostos nessas plataformas, como cyberbullying, assédio moral e sexual, desinformação e outros conteúdos que podem provocar sérios problemas de saúde mental e até a suicídio. Também é vista como maneira de responsabilizar empresas por priorizarem lucros em detrimento da segurança dos mais jovens.

Os críticos, capitaneados pelas próprias big techs, dizem que a lei é inócua, pois os adolescentes encontrarão maneiras de burlar o sistema. Argumentam que isso pode privar os mais jovens de informações importantes e restringiria sua capacidade de socialização. Por fim, a lei prejudicaria a privacidade desses usuários.

A iniciativa australiana escancara o poder desmedido que as big techs construíram. Nunca houve empresa, governo ou instituição capaz de influenciar decisivamente a vida de bilhões de pessoas ao redor do mudo, enfrentando legislações e culturas de países muito diferentes. Resta saber se a lei conseguirá mesmo proteger os mais jovens, e como isso pode incentivar outros países a criarem legislações semelhantes.


Veja esse artigo em vídeo:


Há duas décadas, a desinformação era restrita a falas de políticos e a veículos sensacionalistas, discursos de ódio não se alastravam além de pequenos grupos e fatores de ansiedade adolescente eram muito mais facilmente manejáveis. As redes sociais criadas naquela época, como o Facebook, o Instagram e o Twitter, não foram pensadas para se tornar os veículos que dariam alcance planetário e velocidade descontrolada a tudo isso e a muitos outros conteúdos nocivos.

Elas argumentam que não têm como controlar tudo que seus usuários publicam em suas páginas, e se eximem de qualquer responsabilidade, apoiando-se em legislações como a seção 230 da americana CDA (sigla em inglês para “Lei de Decência nas Comunicações”) e o artigo 19 do Marco Civil da Internet brasileiro.

Leis como essas foram fundamentais para o desenvolvimento das redes sociais, mas foram criadas para realidades que há muito não existem mais. Essas plataformas deixaram de ser inocentes veículos de conteúdos de terceiros quando seus algoritmos passaram a identificar e promover aqueles que geram mais engajamento e lucros, mesmo sabendo que costumam ser publicações com os problemas já citados.

Isso foi evidenciado em outubro de 2021, quando a ex-gerente de produtos do Facebook Frances Haugen divulgou milhares de documentos internos da Meta (empresa dona do Facebook, Instagram e WhatsApp) que explicitavam que a empresa sabe do problema e faz muito menos do que poderia para evitá-lo, especialmente no que se refere a adolescentes, pois isso prejudicaria os seus lucros. O escândalo ficou conhecido como “Facebook Papers”.

No dia 31 de janeiro, em audiência no Senado americano sobre o impacto das redes sociais em crianças, o CEO da Meta, Mark Zuckerberg, se levantou e pediu desculpas aos pais de vítimas jovens das redes sociais que estavam no local. O senador republicano Josh Hawley disse a ele que “seu produto está matando pessoas”.

Dado que o grave problema existe e está indelevelmente associado às redes sociais, mas elas não podem ou não querem resolvê-lo, a solução seria simplesmente “cortar o mal pela raiz”, tirando os mais jovens dali?

 

Grandes poderes e responsabilidades

A Austrália acha que sim! Levantamento da empresa de pesquisas YouGov realizada no mês passado indicou que 77% dos australianos apoiam a proibição de menores de 16 anos nas redes sociais. A lei passa a valer em 2025 e as empresas terão que se adaptar até uma data que ainda não foi definida.

Curiosamente, a Meta prometeu para o próximo ano o recurso “classificador de adultos”, que usará inteligência artificial para descobrir a idade real de um usuário. Se concluir que tem menos de 18 anos, a conta será automaticamente classificada como de adolescente, com várias restrições. Para isso, a tecnologia monitorará publicações e gostos do próprio usuário e de seus amigos. Ao se tentar alterar a idade, o sistema poderá exigir que o usuário grave um vídeo para estimá-la por características faciais.

Isso é muito bem-vindo, mas obviamente a Meta não quer que os valiosos e engajados adolescentes deixem de usar seus produtos. Na verdade, antes dos “Facebook Papers”, a empresa pensava em criar versões de seus sistemas para usuários com menos de 13 anos, como o “Instagram Kids”. Depois do escândalo, a empresa interrompeu esses projetos.

As big techs estão chamando a nova lei australiana de “vaga”, “precipitada” e “contrária a normas internacionais”. De fato, ela foi debatida e aprovada no Parlamento Australiano em apenas uma semana, mas isso se deu após um longo debate público.

Os resultados dessa iniciativa provavelmente influenciarão debates semelhantes em outros países. É o caso do Reino Unido, que está realizando estudos para uma lei muito semelhante à australiana.

A regulamentação dessas plataformas se faz necessária pela incomensurável influência que elas exercem sobre nós, muitas vezes de forma bastante negativa. É preciso criar padrões globais para regulamentação, evitando que essas empresas se aproveitem de brechas legais em países com legislações mais permissivas.

Mas tudo isso precisa ser acompanhado por programas sérios de educação digital e midiática da população, começando nos primeiros anos escolares. Temos que formar pessoas mais críticas e menos suscetíveis a manipulações.

Com seus bilhões de usuários, as big techs se tornaram não apenas um negócio muito lucrativo, mas uma poderosa força política. Qualquer que seja o modelo para minimizar os aspectos tóxicos de seu uso deve considerar o envolvimento e a responsabilização dessas empresas, para que sejam mais transparentes e éticas.

Todos os países precisam exigir ambientes digitais mais saudáveis e seguros, sem sufocar a inovação ou comprometer os direitos fundamentais dos cidadãos. Por isso, uma boa regulamentação dessas plataformas não deve ser vista como um obstáculo, mas como uma oportunidade para elaborar um futuro digital responsável.

 

Alfie (Lucien Laviscount) e Emily (Lily Collins), com a torre Eiffel ao fundo, em cena de “Emily em Paris” – Foto: reprodução

O que “Emily em Paris” diria sobre o câncer de mama

By | Tecnologia | No Comments

Que o apreço pela verdade anda em baixa, não é surpresa. Há muitos anos, a pós-verdade, aquela que prega que a versão dos fatos que interessam às pessoas é mais importante que os fatos em si, tornou-se uma muleta que justifica que pensem e façam o que quiserem, por mais absurdo que seja. Mas observo apreensivo uma nova fase dessa “paranoia coletiva”, em que alguns esperam que a própria realidade se curve aos seus devaneios, como se fossem o centro de seus próprios universos.

Isso se manifesta de maneira mais ou menos escancarada. Um dos exemplos mais emblemáticos e antigos é aquela turma que insiste que a Terra seja plana, contrariando evidências tão enormemente abundantes, que tornam essa crença caricata e patética.

Às vezes, esse descolamento da realidade se torna tragicômico. Por exemplo, a série “Emily em Paris”, sucesso adolescente da Netflix, mostra uma França “perfeita”, que parece gravitar em torno da torre Eiffel, sem moradores de rua, sujeira, crimes ou ratos. Disso surgiram turistas abobalhados que vão a Paris e ficam indignados quando descobrem que ela –como qualquer cidade– não é daquele jeito, e tem problemas!

Em outros casos, as consequências podem ser graves, como em episódios recentes no Brasil de uma médica afirmando nas redes sociais que o câncer de mama não existe e de um médico que disse que a doença pode ser causada por mamografias. Se o fato de profissionais de saúde dizerem algo que pode literalmente matar pessoas não fosse grave o suficiente, esses posts legitimaram que uma legião de pessoas que, por qualquer motivo “não acreditam na doença”, viesse a público “expor essa verdade”.

Os três exemplos, apesar de muito diferentes entre si, guardam uma raiz comum que corrói a sociedade há anos: quando qualquer um pode arrebanhar uma multidão com distorções deliberadas do real, os ganhos civilizatórios começam a colapsar.


Veja esse artigo em vídeo:


Uma pergunta que surge naturalmente é por que alguém comete um desatino desses?

O caso dos médicos é ilustrativo. Eles realmente acreditam naquilo, o que faria deles reprodutores inocentes de um processo anterior de desinformação, ou têm interesses próprios e, portanto, se configurariam como criadores? Os casos estão sendo investigados pelos respectivos Conselhos Regionais de Medicina. No caso da médica, ela também está sendo processada pelo Colégio Brasileiro de Radiologia.

O câncer de mama é a principal neoplasia maligna entre as brasileiras, com mais de 70 mil novos casos por ano por aqui. Em 2022, matou 19.130 mulheres no Brasil. Quanto à mamografia, ela é a principal forma de prevenção de mortes pela doença.

Também podemos aprender com “Emily em Paris”. A série conta a vida de uma jovem publicitária americana que desembarca na Cidade-Luz para trabalhar. Atrapalhada e bem-intencionada, ela colhe tanto vitórias no trabalho, quanto confusões em relacionamentos. Mas chama atenção as locações e figurinos brilhantes, novos, limpos, com cores saturadas. A protagonista sempre veste alta-costura, troca de roupa várias vezes a cada episódio e nunca repetiu um modelo em quatro temporadas no ar!

Pode-se argumentar –com razão– que se trata apenas de entretenimento. Os roteiristas da série não buscam promover a desinformação. Entretanto, acabam contribuindo para um caldo de degradação cognitiva de pessoas que cada vez menos toleram que a vida não seja como imaginam ou esperam. Perdem a capacidade de separar fantasia de realidade, e atacam quem lhes mostra os fatos.

Não se pode desprezar as causas e as consequências de nada disso.

 

Sociedade autodestrutiva

Um estudo de 2021 do instituto britânico Alan Turing detalhou como uma sociedade pode ameaçar a própria sobrevivência, com ataques deliberados à capacidade de se adquirir conhecimento. Para a líder do estudo, Elizabeth Seger, da Universidade de Cambridge, “mesmo que estivesse claro como salvar o mundo, um ecossistema de informações estragado e não-confiável poderia impedir que isso acontecesse”.

Segundo a pesquisa, há quatro ameaças a isso, e nenhuma ao acaso. A primeira são pessoas que atrapalham as decisões com desinformação, algumas agindo de maneira consciente, outras inocentemente. Há ainda um excesso de informação que sobrecarrega nossa concentração, dificultando separar verdades de mentiras. As pessoas também se acostumaram a rejeitar o que desafia suas ideias, particularmente se houver uma forte identidade no grupo, criando o que os pesquisadores chamaram de “racionalidade limitada”. E, por fim, as redes sociais tornaram mais difícil avaliar a confiabilidade das fontes. O estudo conclui que, quando não sabemos em quem acreditar, confiamos naquilo que nos mostra o mundo como queremos.

Há alguns dias, discordei do professor da Universidade de Oxford William Dutton. Ele acredita que as mídias digitais podem disseminar informações enviesadas, mas afirma que as pessoas não são passivas, podendo encontrar facilmente a verdade na Internet ou com amigos e familiares, se assim desejarem. Até diminuiu a importância dos “filtros de bolha”, a que chamou de um “mito tecnológico determinista”. Afirmou ainda que o problema não são as plataformas, e sim os usuários. “Se quiserem, então sabem que podem obter o que desejarem deste canal de televisão e deste site, e ficarão felizes”, acrescenta.

Outro estudo, organizado em 2017 pelo Conselho da Europa e liderado por Claire Wardle, da Universidade de Harvard, trata da “desordem informacional”. Ela se divide em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Também explica que é preciso considerar quem são os agentes (quem cria e distribui a mensagem, e qual sua motivação), as mensagens em si, e os intérpretes (quem as recebe e suas interpretações).

Essas pesquisas demonstram, entre tantas outras, que as pessoas não conseguem sair facilmente da desinformação, especialmente quando 47% dos brasileiros deliberadamente se recusam a consumir notícias, como demonstrou o Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. O estudo diz ainda que apenas 43% dos brasileiros confiam no noticiário, o pior índice já registrado no país.

Em um mundo antes da pós-verdade, a vida fantasiosa de Emily seria apenas deleite para os olhos. Mas no cenário de negação em que vivemos, ela inadvertidamente contribui para a desordem informacional. Ainda assim, a jovem personagem, que sempre busca o melhor para todos, jamais negaria a existência do câncer de mama! Pelo contrário: provavelmente encontraria uma forma genial de usar as redes sociais para a conscientização da sociedade para esse gravíssimo problema de saúde.

 

Ilustração oficial anuncia os vencedores do Prêmio Nobel de Física de 2024: John Hopfield e Geoffrey Hinton - Foto: reprodução

A IA poderá curar o câncer, mas não podemos ignorar seus riscos pelos benefícios

By | Tecnologia | No Comments

A inteligência artificial já transformou o mundo, e esse processo está apenas engatinhando. Suas potencialidades beiram o inimaginável e devemos nos apropriar de todos esses recursos. Ainda assim, temos que cuidar para que isso não se torne um ópio que turve nossa compreensão dos riscos que ela também embute, mas vejo isso já acontecendo de forma preocupante.

Constato esse problema em pesquisadores, parte da imprensa, grandes empresários e outros líderes da sociedade, que abraçam a IA de maneira inconsequente, como se tudo dela fosse bom para a humanidade. Essas pessoas adotam um discurso deslumbrado e intransigente, criticando aqueles que propõem um debate equilibrado sobre benefícios e riscos da IA.

No dia 8, a Academia Real das Ciências da Suécia concedeu o Prêmio Nobel de Física a Geoffrey Hinton, da Universidade de Toronto (Canadá), e a John Hopfield, da Universidade de Princeton (EUA), pelos seus trabalhos pioneiros com redes neurais artificiais e com machine learning, bases da IA. Essa turma correu para incensar a vitória dessa tecnologia, escondendo que, apesar de ser considerado o “padrinho da IA”, Hinton também é um forte crítico ao seu desenvolvimento descuidado.

A defesa inabalável da IA é criadora e criatura de um profundo processo de desordem informacional que beneficia as empresas do setor. Não é um fenômeno novo: há muitos anos, as big techs manipulam a opinião pública em favor das redes sociais. Com isso, mesmo diante dos seus evidentes problemas, uma parcela significativa da população ainda as apoia irrestritamente por seus inegáveis benefícios, mas ignorando os igualmente óbvios prejuízos.

Falhamos ao impedir que essa desinformação favorável às redes sociais criasse raízes tão profundas, que impediram que essas plataformas evoluíssem de maneira mais benéfica à humanidade. Não podemos repetir o erro com a inteligência artificial!


Veja esse artigo em vídeo:


Além de comemorar o reconhecimento de seu trabalho pelo Nobel, Hinton aproveitou a entrevista que concedeu logo após o anúncio de sua vitória para reforçar essas preocupações. E já no segundo minuto de sua fala, criticou Sam Altman, CEO da OpenAI (criadora do ChatGPT), por, segundo ele, “estar muito menos preocupado com a segurança que com os lucros”, algo que classificou como “lamentável”.

Para ele, as transformações pela IA serão comparáveis às da Revolução Industrial, com a diferença que, em vez de superar as pessoas na força física, superará na força intelectual. “Isso trará aumentos brutais na produtividade, mas também temos de nos preocupar com uma série de possíveis consequências ruins, particularmente com a ameaça de que essas coisas saiam do controle”, disse.

Em maio do ano passado, Hinton se demitiu do Google para, segundo ele, poder criticar livremente os caminhos da IA e a disputa sem limites entre as big techs, o que poderia criar “algo realmente perigoso”. Ao The New York Times, disse na época estar arrependido por ter contribuído com isso. E na entrevista do dia 8, disse que, apesar disso, teria feito tudo de novo, pois, na época, não podia prever esses riscos no futuro.

Hinton comemorou o prêmio na sede do Google, junto com ex-colegas e ex-alunos, entre eles Ilya Sutskever, ex-cientista-chefe da OpenAI que tentou demitir, sem sucesso, Sam Altman no ano passado. E o local escolhido é emblemático, demonstrando como a ciência no setor depende umbilicalmente dos recursos das big techs para financiar suas milionárias pesquisas.

Não há nenhum problema na colaboração de corporações e cientistas, muito pelo contrário: se bem conduzida, isso pode trazer grandes benefícios à humanidade. Deve-se apenas ter cuidado para que isso não se distorça para gerar apenas lucros irresponsáveis, como pode estar acontecendo com a IA.

 

Alterações da realidade

Para que as empresas lucrem mais, a opinião pública precisa ser convencida de que tudo está bem, e que suas decisões são tomadas para o bem comum. E os diferentes atores sociais mencionados anteriormente têm um papel essencial nisso.

É o caso de Bill Gates, que vem, há meses, dando incontáveis entrevistas e palestras sobre como a IA tornará o mundo um lugar melhor para todos. Lançou até uma série na Netflix (muito bem-feita), chamada “O Futuro de Bill Gates”, onde reforça a ideia.

O fundador da Microsoft, maior investidora da OpenAI, afirma repetidamente que a IA permitirá que as pessoas trabalhem menos dias na semana. Em tese, isso poderia acontecer, porém o mais provável é que, com o aumento de produtividade, gestores demitam em massa, com os remanescentes trabalhando todos os dias da semana.

Em 2021, pesquisadores da Universidade de Cambridge (Reino Unido) publicaram um estudo que explicava mecanismos de ataque à capacidade da população de adquirir conhecimento. E uma das principais ameaças são as pessoas que disseminam desinformação, divididas em dois grupos. O primeiro, batizado de “adversários”, deliberadamente manipula informações, promove ataques ou incita seguidores para confundir ou enganar a população para atingir seus objetivos. O segundo, os “trapalhões”, de maneira inocente e até bem-intencionada, espalha essas bobagens, como acontece naquele grupo da família no WhatsApp.

Pelas suas informações privilegiadas, é muito mais provável que Gates e Altman sejam “adversários”, e não “trapalhões”. Nesses últimos, estão aqueles que usam a IA de maneira pouco crítica, achando que ela é uma grande assistente, quando, na verdade, em breve podem perder seu emprego para ela, pelo uso limitado que fazem.

No final das contas, o excesso de informação sobre a IA, a polarização da sociedade e o papel dos “adversários” e dos “trapalhões” podem atrapalhar profundamente o desenvolvimento de bons usos da IA, pois a população pode adquirir uma visão pouco crítica sobre essa tecnologia. Assim como aconteceu as redes sociais, muito mais que as pessoas, as grandes beneficiadas desse processo são a big techs.

Hinton afirma categoricamente que não se sabe como evitar os riscos criados pela IA. Por isso, ele afirma que mais pesquisas independentes sobre isso são urgentes. Caso contrário, esse processo de degradação cognitiva seguirá seu curso, até que eventualmente seja tarde demais e seus temores se concretizem.

Temos que nos apropriar de tudo de bom que a IA nos oferece, e não é pouca coisa. Mas não podemos ser deslumbrados inconsequentes diante disso.

 

Inteligência artificial pode deixar o mundo mais seguro e também perigoso

By | Tecnologia | No Comments

Como de qualquer ferramenta, os resultados da inteligência artificial dependem das ações de quem a utiliza. Pessoas que fazem usos positivos dela produzirão bons frutos. Já as de má índole podem causar danos profundos. Com seu poder disruptivo, essas consequências podem ser críticas! Esse foi o tema de um dos principais painéis do Web Summit Rio, um dos mais importantes eventos globais de tecnologia, mídia e inovação, que aconteceu no Rio de Janeiro, de terça a quinta da semana passada.

Um dos problemas deriva de a IA oferecer mecanismos para se alterar a realidade ou criar mentiras muito convincentes. Isso abre incontáveis possibilidade de golpes, ameaçando indivíduos, empresas e sociedades inteiras, como no caso de eleições. “Se a confiança for perdida, ficará muito difícil continuar inovando em coisas boas na IA”, disse no painel o estoniano Kaarel Kotkas, CEO da empresa de segurança Veriff.

Felizmente a mesma IA oferece recursos para combater essas ameaças. “A gente precisa pensar que seremos cada vez mais uma sociedade baseada em tecnologia”, me disse no evento Cesar Gon, CEO da empresa de tecnologia CI&T. “É importante acompanhar para onde a tecnologia vai e criar limites, mas garantindo que a ciência e a tecnologia continuem evoluindo para resolver os problemas humanos”, explicou, ressaltando que a IA deve sempre estar alinhada com os interesses da sociedade.

Diante de tanto poder computacional, chega a ser irônico que a maioria dos golpes não envolva invasão de sistemas. O elo mais frágil na segurança continua sendo o ser humano, enganado de diferentes maneiras para que repasse informações pessoais (como senhas) ou realize ações prejudiciais, uma técnica chamada de engenharia social. O que muda nisso com a IA é que os procedimentos para confundir as pessoas se tornam mais convincentes, difíceis de se identificar, e agora atingem muita gente, para aumentar a chance de fazerem suas vítimas.


Veja esse artigo em vídeo:


Esse é um dos grandes desafios da sociedade atualmente. Qualquer pessoa, mesmo alguém que domine a tecnologia, pode cair em golpes. Sua solução passa necessariamente pela educação dos usuários, mas também pelo comprometimento de empresas –de big techs a startups– para um desenvolvimento responsável dessas soluções, e de autoridades que criem regras claras para garantir isso.

Nesse cenário, técnicas tradicionais de proteção digital perdem eficiência. Mesmo autenticações em dois fatores –quando, além da senha, o usuário se autentica por um segundo método– podem expor pessoas e empresas. As companhias precisam adotar abordagens em camadas e usar múltiplas tecnologias, como autenticação avançada, verificação de dispositivos e incorporação preventiva de IA para detectar fraudes.

Os dados dos usuários valem ouro para os bandidos, mas também são importantes para sua identificação mais precisa. As empresas precisam ser transparentes sobre como serão usados, para que as pessoas se sintam confortáveis em compartilhá-los.

“Quando elas entendem esse valor, podem tomar uma decisão muito melhor sobre se querem compartilhar seus dados, para terem mais segurança”, disse no mesmo painel André Ferraz, CEO da empresa de identificação Incognia. “Se nós não formos capazes disso, as pessoas poderão deixar de acreditar na Internet”, concluiu.

As grandes empresas de tecnologia têm um papel decisivo na construção dessas boas práticas e na educação do mercado, até mesmo porque elas têm muito a perder se a situação se deteriorar para um cenário de desconfiança generalizada. “É essencial para elas perceberem que ignorar a importância de construir confiança e segurança em seus sistemas poderia prejudicar sua capacidade de implementar amplamente a tecnologia no futuro”, me explicou Kotkas. “Negligenciar isso poderia resultar em grandes repressões regulatórias e interromper o progresso na criação de novas tecnologias.”

A inteligência artificial também potencializa muito outro câncer social que se disseminou pelas redes sociais: a desinformação. O assunto foi abordado em diversas apresentações no Web Summit Rio, e ganha muita força em nesse ano, quando as maiores democracias do mundo realizarão eleições, incluindo municipais no Brasil, presidenciais nos EUA e gerais na Índia, país mais populoso do mundo, cujo pleito começou na semana passada e se estenderá por seis semanas.

 

Absurdos possíveis

As plataformas atuais de inteligência artificial tornaram muito mais fáceis, rápidas e baratas as confecções de deep fakes, técnica capaz de criar áudios, fotos e vídeos de pessoas realizando ações e dizendo coisas que nunca fizeram. Ela já existe há alguns anos, mas antes exigia equipamentos caros e bom conhecimento técnico, o que a tornava uma aplicação de nicho. Agora não é mais assim!

“Nas próximas eleições, o maior desafio não são as imagens, mas os áudios”, advertiu em outro painel Renata Lo Prete, editora-chefe do Jornal da Globo. “Com apenas um ou dois minutos da voz real de alguém, é possível criar um áudio falso perfeito, por menos de US$ 5 e em menos de cinco minutos, uma questão crítica, especialmente no Brasil, líder em trocas de mensagens pelo WhatsApp”, explicou.

Isso já acontece! Na eleição presidencial argentina, as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para atingir as imagens dos adversários. Em outro caso internacional, americanos receberam ligações com a voz do presidente Joe Biden dizendo para que não votassem nas eleições primárias. E por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, fazia ofensas contra professores. Tudo isso era falso!

Os diversos agentes da sociedade precisam se unir para que a IA seja usada de maneira positiva, sem “cortinas de fumaça” que mascaram interesses de um ou outro grupo. “Esse debate se misturou com uma visão bastante ingênua de fim do mundo, que nos afasta de discutir os reais impactos, que são a natureza do trabalho, os empregos, segurança, privacidade, ética e os algoritmos viciados”, explicou Gon.

“Nesse momento, talvez alguns humanos estejam procurando algo mágico”, disse o americano Todd Olson, CEO da empresa de software Pendo, em outro painel. “Não precisamos de mágica, mas de saber exatamente o que acontece, para que possamos aumentar a confiança na tecnologia”, concluiu.

Não dá para fugirmos desse debate, que nos envolve a todos cada vez mais. Gostemos ou não, a inteligência artificial se tornou nossa parceira. Por isso, ela precisa ser confiável e segura.


Assista e esse vídeo relacionado:

Íntegra da entrevista com Cesar Gon, CEO da CI&T

 

IA pode ser usada na eleição, mas seguindo regras para evitar fake news - Ilustração: Paulo Silvestre com Freepik/Creative Commons

Regras para IA nas eleições são positivas, mas criminosos não costumam seguir a lei

By | Tecnologia | No Comments

A tecnologia volta a ser protagonista na política, e não dá para ignorar isso em um mundo tão digital. Na terça, o Tribunal Superior Eleitoral (TSE) aprovou instruções para o pleito municipal desse ano. Os usos de redes sociais e inteligência artificial nas campanhas chamaram atenção. Mas apesar de positivas e bem-produzidas, elas não dizem como identificar e punir a totalidade de crimes eleitorais no ciberespaço, que só aumentam. Enquanto isso, a tecnologia continua favorecendo os criminosos.

Claro que a medida gerou uma polêmica instantânea! Desde 2018, as eleições brasileiras vêm crescentemente sendo decididas com forte influência do que se vê nas redes sociais, especialmente as fake news, que racharam a sociedade brasileira ao meio. Agora a inteligência artificial pode ampliar a insana polarização que elege candidatos com poucas propostas e muito ódio no discurso.

É importante que fique claro que as novas regras não impedem o uso de redes sociais ou de inteligência artificial. Seria insensato bloquear tecnologias que permeiam nossa vida e podem ajudar a melhorar a qualidade e a baratear as campanhas, o que é bem-vindo, especialmente para candidatos mais pobres. Mas não podemos ser inocentes e achar que os políticos farão apenas usos positivos de tanto poder em suas mãos.

Infelizmente a solução para essas más práticas do mundo digital não acontecerá apenas com regulamentos. Esse é também um dilema tecnológico e as plataformas digitais precisam se envolver com seriedade nesse esforço.


Veja esse artigo em vídeo:


A iniciativa do TSE não é isolada. A preocupação com o impacto político do meio digital atingiu um pico no mundo em 2024, ano com 83 eleições ao redor do globo, a maior concentração pelos próximos 24 anos. Isso inclui algumas das maiores democracias do mundo, como Índia, Estados Unidos e Brasil, o que fará com que cerca de metade dos eleitores do planeta depositem seus votos até dezembro.

As regras do TSE procuram ajudar o eleitor a se decidir com informações verdadeiras. Por isso, determinam que qualquer texto, áudio, imagem ou vídeo que tenha sido produzido ou manipulado por IA seja claramente identificado como tal. Além disso, proíbem que sejam criados sistemas que simulem conversas entre o eleitor e qualquer pessoa, inclusive o candidato. Vedam ainda as deep fakes, técnica que cria áudios e vídeos falsos que simulam uma pessoa dizendo ou fazendo algo que jamais aconteceu.

Além de não praticar nada disso, candidatos e partidos deverão denunciar fraudes à Justiça Eleitoral. As plataformas digitais, por sua vez, deverão agir por conta própria, sem receberem ordens judiciais, identificando e removendo conteúdos que claramente sejam falsos, antidemocráticos ou incitem ódio, racismo ou outros crimes. Se não fizerem isso, as empresas podem ser punidas. Candidatos que infringirem as regras podem ter a candidatura e o mandato cassados (no caso de já terem sido eleitos).

Outra inovação é equiparar as redes sociais aos meios de comunicação tradicionais, como jornal, rádio e TV, aplicando a elas as mesmas regras. Alguns especialistas temem que esse conjunto de medidas faça com que as plataformas digitais exagerem nas restrições, eliminando conteúdos a princípio legítimos, por temor a punições. E há ainda o interminável debate se elas seriam capazes de identificar todos os conteúdos problemáticos de maneira automática.

Os desenvolvedores estão se mexendo, especialmente por pressões semelhantes que sofrem nos Estados Unidos e na União Europeia. Em janeiro, 20 empresas de tecnologia assinaram um compromisso voluntário para ajudar a evitar que a IA atrapalhe nos pleitos. A OpenAI, criadora do ChatGPT, e o Google, dono do concorrente Gemini, anunciaram que estão ajustando suas plataformas para que não atendam a pedidos ligados a eleições. A Meta, dona do Facebook, do Instagram e do WhatsApp, disse que está refinando técnicas para identificar e rotular conteúdos criados ou modificados por inteligência artificial.

Tudo isso é necessário e espero que não se resuma apenas a “cortinas de fumaça” ou “leis para inglês ver”. Mas resta descobrir como fiscalizar as ações da parte ao mesmo tempo mais frágil e mais difícil de ser verificada: o usuário.

 

Ajudando o adversário a se enforcar

Por mais que os políticos e as big techs façam tudo que puderem para um bom uso desses recursos, o maior desafio recai sobre os cidadãos, seja um engajado correligionário (instruído ou não pelas campanhas), seja um inocente “tio do Zap”. Esses indivíduos podem produzir e distribuir grande quantidade de conteúdo incendiário e escapar da visão do TSE. Pior ainda: podem criar publicações ilegais como se fossem o adversário deliberadamente para que ele seja punido.

O tribunal não quer que se repita aqui o que foi visto na eleição presidencial argentina, em novembro. Lá as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para denegrir a imagens dos adversários.

Em outro caso internacional, os moradores de New Hampshire (EUA) receberam ligações de um robô com a voz do presidente Joe Biden dizendo para que não votassem nas primárias do Estado, no mês passado. Por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, circulou em dezembro com ofensas contra professores. Os dois casos eram falsos.

Esse é um “jogo de gato e rato”, pois a tecnologia evolui muito mais rapidamente que a legislação, e os criminosos se valem disso. Mas o gato tem que se mexer!

Aqueles que se beneficiam desses crimes são os que buscam confundir a população. Seu discurso tenta rotular essas regras como cerceamento da liberdade de expressão. Isso não é verdade, pois todos podem continuar dizendo o que quiserem. Apenas pagarão no caso de cometerem crimes que sempre foram claramente tipificados.

Há ainda o temor dessas medidas atrapalharem a inovação, o que também é questionável. Alguns setores fortemente regulados, como o farmacêutico e o automobilístico, estão entre os mais inovadores. Por outro lado, produtos reconhecidamente nocivos devem ser coibidos, como os da indústria do cigarro.

A inteligência artificial vem eliminando a fronteira entre conteúdos verdadeiros e falsos. Não se pode achar que os cidadãos (até especialistas) consigam identificar mentiras tão bem-criadas, mesmo impactando decisivamente seu futuro. E as big techs reconhecidamente fazem menos do que poderiam e deveriam para se evitar isso.

Ausência de regras não torna uma sociedade livre, mas anárquica. A verdadeira liberdade vem de termos acesso a informações confiáveis que nos ajudem a fazer as melhores escolhas para uma sociedade melhor e mais justa para todos.

Ao invés de atrapalhar, a tecnologia deve nos ajudar nessa tarefa. E ela pode fazer isso!

 

Criada por IA, Ren Xiaorong é a âncora do telejornal “Diário do Povo”, controlado pelo governo chinês - Foto: reprodução

IA agora produz e publica notícias, aumentando os riscos de desinformação

By | Jornalismo, Tecnologia | No Comments

O que você sentiria se o presidente da República telefonasse a você para lhe convencer de algo? Ou se alguém bem próximo, como um sobrinho ou até um filho, enviasse um áudio pedindo dinheiro? Muita gente desconfiaria que se trata de um golpe. Mas o rápido avanço da inteligência artificial está tornando esse tipo de engodo cada vez mais crível, fazendo vítimas em todos os estratos sociais.

Portanto, cuidado ao gritar que jamais cairá em algo assim. Por muito menos, todo mundo já acreditou em alguma fake news!

A ameaça cresce quando se observa que o uso da IA vai muito além da produção de textos, áudios e vídeos bem-feitos. Os robôs agora constroem sequências de notícias falsas sobre temas que lhes forem solicitados. Além disso, eles as distribuem de maneiras cada vez mais criativas, até como se fossem jornalistas humanos.

Não por acaso, em janeiro, o Fórum Econômico Mundial apontou a desinformação potencializada pela inteligência artificial como o maior risco que a humanidade enfrentará nos próximos anos.

As big techs, responsáveis pela criação dessas plataformas, estão se mexendo. No mesmo Fórum, Nick Clegg, presidente de assuntos globais da Meta (dona do Facebook, Instagram e WhatsApp), anunciou que a empresa está trabalhando com os principais nomes do setor para criar mecanismos que identifiquem claramente que um conteúdo foi sintetizado por IA. O executivo classificou a iniciativa como “a tarefa mais urgente” da indústria tecnológica atualmente.

Já passamos há anos do ponto em que as versões ficaram mais “importantes” para o público que os fatos, e falhamos miseravelmente no combate a isso, com consequências desastrosas. Nesse ano, com mais de 2 bilhões de pessoas votando em 58 países, o desafio de todos passa a ser não apenas resgatar o valor da verdade, como também serem capazes de identificá-la.


Veja esse artigo em vídeo:


Isso já acontece, inclusive onde estão as sedes das big techs: os EUA. O país começou 2024 com a polarização nas alturas pela eleição presidencial em novembro, que deve colocar novamente o atual presidente, Joe Biden, frente a seu antecessor, Donald Trump. O primeiro já vem sendo vítima de vídeos falsos desde o ano passado.

Recentemente, eleitores do Estado de New Hampshire receberam telefonemas com a voz de Biden enganando-os para não votarem na eleição primária local. Isso fez com que o governo proibisse o uso de IA para simular vozes em ligações automáticas no país.

Legislações costumam chegar atrasadas e muitas vezes são ineficientes, diante da velocidade da inovação. O debate sobre regulamentar redes sociais e agora a inteligência artificial vem deixando claro que se focar nas tecnologias é infrutífero, devendo se concentrar na responsabilização dos desenvolvedores e dos usuários que usam esses recursos indevidamente.

O grande problema é que, com ou sem regras claras, os vilões –sejam empresas ou usuários– continuam fazendo o que bem entendem para garantir seus lucros ou outros objetivos. A IA deve facilitar esse processo ainda mais, e eles sabem disso.

A imprensa historicamente desempenha o papel de proteger a sociedade desse tipo de abuso, mas ela própria vem sendo impactada pela inteligência artificial, seja em seus próprios processos, seja na concorrência de “pseudojornalistas digitais” que tentam enganar o público.

O Reuters Institute divulgou em janeiro um detalhado estudo sobre as perspectivas para esse ano sobre jornalismo, mídia e tecnologia. O documento reconhece esses desafios, destacando que a maioria do conteúdo na Internet será produzido por IA já em 2026. Segundo os pesquisadores, isso exige que jornalistas e empresas noticiosas repensem seu papel e propósito urgentemente.

 

“Jornalistas sintéticos”

Essas empresas já observam queda na sua audiência vinda de redes sociais, que passaram a privilegiar criadores no estilo TikTok ao invés de jornalismo, pois isso lhes favorece. O desafio do jornalismo aumenta com o crescimento das “Experiências Generativas de Busca”, um recurso de buscadores como Google e Bing, em que a IA generativa redige parágrafos que explicam brevemente o que o usuário procura. Com isso, ele não precisa mais visitar as páginas de onde as informações foram tiradas.

Em outras palavras, os veículos de comunicação alimentam essas plataformas e não ganham nem mesmo a visita do usuário em troca. É quase como se cada um de nós agora tivesse um “jornalista sintético” a nossa disposição para nos explicar qualquer assunto.

Parece ótimo, mas isso embute um risco enorme: esses parágrafos podem misturar alegremente informações jornalísticas de qualidade com fake news bizarras. Portanto, podem se converter em poderosas ferramentas de desinformação, além de achatar a audiência dos veículos de comunicação.

Pesquisadores acreditam que, nesse ano, plataformas de inteligência artificial também passem a produzir grandes volumes de desinformação, não mais dependendo de comando individuais, mas seguindo diretrizes mais amplas. Como a publicação é automática, isso pode inundar as redes sociais com informações falsas, que soterrariam o conteúdo jornalístico diante dos algoritmos. Além disso, países como China e até Venezuela já usam avatares ultrarrealistas que se passam por jornalistas humanos e despudoradamente leem notícias que lhes forem ordenadas.

O relatório do Reuters Institute indica que as empresas de comunicação pretendem reforçar o contato direto com seu público, em detrimento das plataformas digitais. Mas isso pode afastá-las ainda mais de sua audiência mais jovem e menos instruída, que se sente satisfeita com as notícias geradas por IA.

A inteligência artificial é uma ferramenta fabulosa e estamos em um caminho sem volta para sua adoção em todos os setores da economia, inclusive na comunicação. Apesar de todos esses desafios, ela também oferece muitos ganhos ao jornalismo, se bem usada.

O risco a que todos nós –e não apenas jornalistas– temos que estar atentos é a possibilidade de decisões básicas da sociedade civil, como em quem votar, sejam sequestradas por robôs sem ética. As empresas de comunicação não podem repetir com a IA o erro que cometeram ao desprezar o poder das redes sociais, quando ainda estavam começando. Precisam compreender e se apropriar dessa tecnologia, e ajudar toda a sociedade a fazer o mesmo.

Caso contrário, seremos cada vez mais cidadãos teleguiados.