fake news

Alfie (Lucien Laviscount) e Emily (Lily Collins), com a torre Eiffel ao fundo, em cena de “Emily em Paris” – Foto: reprodução

O que “Emily em Paris” diria sobre o câncer de mama

By | Tecnologia | No Comments

Que o apreço pela verdade anda em baixa, não é surpresa. Há muitos anos, a pós-verdade, aquela que prega que a versão dos fatos que interessam às pessoas é mais importante que os fatos em si, tornou-se uma muleta que justifica que pensem e façam o que quiserem, por mais absurdo que seja. Mas observo apreensivo uma nova fase dessa “paranoia coletiva”, em que alguns esperam que a própria realidade se curve aos seus devaneios, como se fossem o centro de seus próprios universos.

Isso se manifesta de maneira mais ou menos escancarada. Um dos exemplos mais emblemáticos e antigos é aquela turma que insiste que a Terra seja plana, contrariando evidências tão enormemente abundantes, que tornam essa crença caricata e patética.

Às vezes, esse descolamento da realidade se torna tragicômico. Por exemplo, a série “Emily em Paris”, sucesso adolescente da Netflix, mostra uma França “perfeita”, que parece gravitar em torno da torre Eiffel, sem moradores de rua, sujeira, crimes ou ratos. Disso surgiram turistas abobalhados que vão a Paris e ficam indignados quando descobrem que ela –como qualquer cidade– não é daquele jeito, e tem problemas!

Em outros casos, as consequências podem ser graves, como em episódios recentes no Brasil de uma médica afirmando nas redes sociais que o câncer de mama não existe e de um médico que disse que a doença pode ser causada por mamografias. Se o fato de profissionais de saúde dizerem algo que pode literalmente matar pessoas não fosse grave o suficiente, esses posts legitimaram que uma legião de pessoas que, por qualquer motivo “não acreditam na doença”, viesse a público “expor essa verdade”.

Os três exemplos, apesar de muito diferentes entre si, guardam uma raiz comum que corrói a sociedade há anos: quando qualquer um pode arrebanhar uma multidão com distorções deliberadas do real, os ganhos civilizatórios começam a colapsar.


Veja esse artigo em vídeo:


Uma pergunta que surge naturalmente é por que alguém comete um desatino desses?

O caso dos médicos é ilustrativo. Eles realmente acreditam naquilo, o que faria deles reprodutores inocentes de um processo anterior de desinformação, ou têm interesses próprios e, portanto, se configurariam como criadores? Os casos estão sendo investigados pelos respectivos Conselhos Regionais de Medicina. No caso da médica, ela também está sendo processada pelo Colégio Brasileiro de Radiologia.

O câncer de mama é a principal neoplasia maligna entre as brasileiras, com mais de 70 mil novos casos por ano por aqui. Em 2022, matou 19.130 mulheres no Brasil. Quanto à mamografia, ela é a principal forma de prevenção de mortes pela doença.

Também podemos aprender com “Emily em Paris”. A série conta a vida de uma jovem publicitária americana que desembarca na Cidade-Luz para trabalhar. Atrapalhada e bem-intencionada, ela colhe tanto vitórias no trabalho, quanto confusões em relacionamentos. Mas chama atenção as locações e figurinos brilhantes, novos, limpos, com cores saturadas. A protagonista sempre veste alta-costura, troca de roupa várias vezes a cada episódio e nunca repetiu um modelo em quatro temporadas no ar!

Pode-se argumentar –com razão– que se trata apenas de entretenimento. Os roteiristas da série não buscam promover a desinformação. Entretanto, acabam contribuindo para um caldo de degradação cognitiva de pessoas que cada vez menos toleram que a vida não seja como imaginam ou esperam. Perdem a capacidade de separar fantasia de realidade, e atacam quem lhes mostra os fatos.

Não se pode desprezar as causas e as consequências de nada disso.

 

Sociedade autodestrutiva

Um estudo de 2021 do instituto britânico Alan Turing detalhou como uma sociedade pode ameaçar a própria sobrevivência, com ataques deliberados à capacidade de se adquirir conhecimento. Para a líder do estudo, Elizabeth Seger, da Universidade de Cambridge, “mesmo que estivesse claro como salvar o mundo, um ecossistema de informações estragado e não-confiável poderia impedir que isso acontecesse”.

Segundo a pesquisa, há quatro ameaças a isso, e nenhuma ao acaso. A primeira são pessoas que atrapalham as decisões com desinformação, algumas agindo de maneira consciente, outras inocentemente. Há ainda um excesso de informação que sobrecarrega nossa concentração, dificultando separar verdades de mentiras. As pessoas também se acostumaram a rejeitar o que desafia suas ideias, particularmente se houver uma forte identidade no grupo, criando o que os pesquisadores chamaram de “racionalidade limitada”. E, por fim, as redes sociais tornaram mais difícil avaliar a confiabilidade das fontes. O estudo conclui que, quando não sabemos em quem acreditar, confiamos naquilo que nos mostra o mundo como queremos.

Há alguns dias, discordei do professor da Universidade de Oxford William Dutton. Ele acredita que as mídias digitais podem disseminar informações enviesadas, mas afirma que as pessoas não são passivas, podendo encontrar facilmente a verdade na Internet ou com amigos e familiares, se assim desejarem. Até diminuiu a importância dos “filtros de bolha”, a que chamou de um “mito tecnológico determinista”. Afirmou ainda que o problema não são as plataformas, e sim os usuários. “Se quiserem, então sabem que podem obter o que desejarem deste canal de televisão e deste site, e ficarão felizes”, acrescenta.

Outro estudo, organizado em 2017 pelo Conselho da Europa e liderado por Claire Wardle, da Universidade de Harvard, trata da “desordem informacional”. Ela se divide em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Também explica que é preciso considerar quem são os agentes (quem cria e distribui a mensagem, e qual sua motivação), as mensagens em si, e os intérpretes (quem as recebe e suas interpretações).

Essas pesquisas demonstram, entre tantas outras, que as pessoas não conseguem sair facilmente da desinformação, especialmente quando 47% dos brasileiros deliberadamente se recusam a consumir notícias, como demonstrou o Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. O estudo diz ainda que apenas 43% dos brasileiros confiam no noticiário, o pior índice já registrado no país.

Em um mundo antes da pós-verdade, a vida fantasiosa de Emily seria apenas deleite para os olhos. Mas no cenário de negação em que vivemos, ela inadvertidamente contribui para a desordem informacional. Ainda assim, a jovem personagem, que sempre busca o melhor para todos, jamais negaria a existência do câncer de mama! Pelo contrário: provavelmente encontraria uma forma genial de usar as redes sociais para a conscientização da sociedade para esse gravíssimo problema de saúde.

 

O historiador Yuval Noah Harari, para quem robôs que imitam humanos ameaçam a democracia - Foto: Ciaran McCrickard/Creative Commons

Robôs que fingem ser humanos ameaçam a democracia

By | Tecnologia | No Comments

Desde que o austríaco Fritz Lang levou o robô Maria para as telas, no cultuado “Metropolis” (1927), máquinas fingindo ser pessoas vêm sendo exploradas pela ficção. Ainda que de maneira bem diferente de livros e filmes, nunca estivemos tão perto de isso acontecer, com profundos impactos sociais.

Considerado um expoente do expressionismo alemão, o filme retrata um futuro distópico, que curiosamente se passa em 2020. Nele, governantes que temem uma revolução popular usam uma máquina que falsifica a verdadeira Maria, uma mulher carismática e que prega paz e esperança, para semear o caos entre os trabalhadores.

Na nossa realidade, os robôs mais avançados não têm corpos, mas enganam ao se comportarem como humanos. Eles transmitem ideias de maneira muito convincente, falando como nós. E isso pode transformar a sociedade mais que a Maria de Lang.

No mês, passado, Yuval Noah Harari argumentou em um artigo que a capacidade de a inteligência artificial convencer pessoas melhora à medida que esses sistemas se parecem mais com seres humanos. Como explica o historiador e filósofo israelense, a democracia depende de diálogo, e debates nacionais só se tornaram e se mantêm viáveis graças a tecnologias da informação, como os jornais e a TV.

Logo, qualquer mudança tecnológica pode impactar o diálogo e, consequentemente, a democracia. O irônico é que passamos agora, com a IA, pela maior transformação em décadas, mas seu impacto no diálogo não se dá por ampliar a troca de ideias, mas por ser uma ferramenta excepcional de manipulação das massas.

A pergunta que surge é: até onde esses “falsos humanos” podem prejudicar nossa capacidade de fazer escolhas conscientes sobre o que realmente é melhor para nós?


Veja esse artigo em vídeo:


Pudemos comprovar isso no primeiro turno das eleições, que aconteceu nesse domingo. Seguindo o padrão dos pleitos anteriores, os candidatos com propostas sensatas perderam espaço para quem se apresentou como “antissistema” ou que, no mínimo, propôs grandes mudanças, por mais que fossem esdrúxulas.

Esses candidatos entenderam algo que as redes sociais descobriram há alguns anos: as pessoas curtem, comentam e compartilham o que lhes desperta sentimentos nada nobres, como ódio, ganância e medo. Como vivem de engajamento, seus algoritmos promovem ativamente esses conteúdos. Esses políticos souberam se apropriar de tal recurso, agindo nesses sentimentos, para que aparecessem mais em nosso cotidiano.

Justamente aí a inteligência artificial pode ter um efeito nefasto. Apesar de depender de comandos humanos para funcionar, ela identifica padrões com eficiência sobre-humana, incluindo o que desperta aqueles sentimentos no eleitorado. Com tal informação, essa tecnologia produz para os políticos o material necessário para que se mantenham em evidência com o apoio das redes sociais.

A velha máxima do “falem bem ou mal, mas falem de mim” ganha nova dimensão. No deserto de ideias resultante, além das redes sociais, os outros candidatos e a própria imprensa acabam fazendo o jogo sujo dos “valentões”, que sequestram o tempo e a atenção das pessoas. Nesse vazio, cresce quem simplesmente aparece mais.

Nas minhas viagens pelo mundo, comprovei que a saúde de uma democracia estava ligada à qualidade de sua imprensa, que usa a tecnologia para informar, defender e fortalecer a população. O “problema” é que sua ferramenta é a verdade, que normalmente é muito menos atraente que as mentiras excitantes dos candidatos.

Dessa forma, os políticos atuam na corrosão da confiança das pessoas na imprensa. Por mais que ela faça um bom trabalho, seu papel na preservação da sociedade se enfraquece, pois sua mensagem agora ressoa menos no público. E as redes sociais, que viabilizam isso tudo, se isentam candidamente de qualquer responsabilidade.

Não é de se estranhar, portanto, que 47% dos brasileiros se recusem a consumir qualquer notícia. O número é do Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. Em 2023, esse índice era de 41%.

 

Às favas com a verdade!

Inicialmente, acreditava-se que as pessoas eram manipuladas pelo convencimento dos algoritmos das redes sociais. E ainda que isso seja verdade para uma parcela muito significativa da população, sabe-se que o mecanismo é mais complexo que isso.

As pessoas acreditam no que lhes convier! Por mais absurda que seja a tese lançada por um político, muita gente não apenas compra a ideia, como ativamente a distribui por todos os meios que dispuser. A imprensa que mostra a falcatrua passa a ser vista como uma inimiga a ser desacreditada e silenciada.

Mas a eleição de 2022 ampliou a deterioração tecnológica da democracia, que se consolidou nesse primeiro turno, especialmente em cidades como São Paulo, onde a campanha se limitou à sarjeta. O que se observa agora são pessoas espalhando informações que sabem ser falsas, pois seus valores se alinham com os do candidato mentiroso. A verdade passa a ser um incômodo descartável, em um gigantesco “o fim justifica os meios”. Não se dão nem mais ao trabalho de acreditar!

A IA já se presta a fornecer a inteligência para isso. “Quando nos envolvemos em um debate político com um bot que se faz passar por humano, perdemos duas vezes”, escreveu Harari, que explica: “É inútil perdermos tempo tentando mudar as opiniões de um bot de propaganda, que simplesmente não está aberto à persuasão. E quanto mais conversamos com o bot, mais revelamos sobre nós mesmos, tornando mais fácil para o bot aprimorar seus argumentos e influenciar nossas opiniões.”

Quando a Internet foi criada, acreditava-se que ela ajudaria a disseminar a verdade. As redes sociais enterraram essa utopia. Com a avalanche de inutilidades e de mentiras que trouxeram, a atenção das pessoas tornou-se um recurso escasso. Na consequente batalha por ela, não vence quem dialoga, mas quem vocifera mais alto o que a turba insana e insatisfeita deseja.

O voto é substituído pela curtida e o debate perde espaço para o algoritmo. Enquanto algumas das melhores mentes do mundo atuam para humanizar os robôs, o resultado de seu trabalho ironicamente ameaça uma das características mais humanas que temos: a capacidade de dialogar e evoluir com isso.

O desafio dessa geração é reverter esse processo. Mas enquanto as empresas que criam as redes sociais e as plataformas de inteligência artificial não assumirem verdadeiramente a sua responsabilidade nesse processo, a dobradinha de robôs e políticos sujos triunfará.

 

O primeiro-ministro indiano, Narendra Modi (direita), manteve o cargo, após as “eleições da IA” - Foto: Governo da Índia/Creative Commons

Índia inaugura novo jeito de fazer campanha eleitoral, com apoio da IA

By | Tecnologia | No Comments

O resultado das eleições sempre esteve ligado ao uso das tecnologias da época. A TV era fundamental para a vitória até 2018, quando foi suplantada pelas redes sociais, críticas para definir os pleitos desde então. Mas agora elas podem perder esse posto para a inteligência artificial. E a Índia, que acabou de realizar a maior eleição do mundo, demonstrou como dominar essa tecnologia ficou essencial para os candidatos.

A IA na política não se resume a criar deep fakes para desmoralizar adversários ou se valer do ChatGPT para compor peças publicitárias, legítimas ou falsas. Como alguns candidatos indianos demonstraram, ela pode desenvolver canais inovadores e personalizados com os eleitores. E isso parece até uma boa ideia!

Se a IA fornecesse a atenção que nenhum candidato humano conseguisse dar, atendendo cada cidadão individualmente, isso poderia até fortalecer a democracia. Mas o problema do uso da IA na política é o mesmo do seu uso em qualquer atividade: abusos de seus recursos para produzir resultados imprecisos, imorais e ilegais, para assim, mais que convencer, manipular multidões e vencer uma eleição.

No final, a IA maximiza a índole de quem a usa. E infelizmente a classe política tem sido pródiga em apresentar pessoas com uma moral rasteira, dispostas a pisotear a ética e usar todos os recursos para vencer. Por isso, devemos olhar para o que aconteceu na Índia e aprender algo com aquilo. Se um bom uso da IA pode fortalecer a democracia, seu mau uso pode colocá-la em seríssimo risco!


Veja esse artigo em vídeo:


Por décadas, os candidatos brasileiros com mais tempo na TV iam para o segundo turno das eleições. Isso mudou em 2018, quando Geraldo Alckmin, que tinha 5 minutos e 32 segundos (quase metade do tempo total do horário eleitoral gratuito), amargou uma quarta posição, enquanto Jair Bolsonaro, com apenas 8 segundos, foi eleito presidente.

Ele ganhou porque percebeu, antes e melhor que todos, que as redes sociais haviam se tornado o canal mais eficiente de disseminação de ideias e de manipulação de mentes. E não se tratava apenas de fazer um bom uso dos recursos técnicos, mas de se alterar o jeito de se fazer a própria política, com apoio de algoritmos, fake news e discursos que parecem falar aos anseios de cada um, e não aos de toda a sociedade.

Agora a inteligência artificial promete levar a “política digital” a patamares inimagináveis. O pleito indiano foi um laboratório que deve ser observado pela população, pela mídia, por autoridades eleitorais e pelos políticos, pelo seu tamanho gigantesco e pela disseminação da tecnologia entre os cidadãos.

Em janeiro, o Fórum Econômico Mundial classificou a desinformação potencializada pela inteligência artificial como um dos maiores desafios do mundo nos próximos anos. No caso da Índia, o relatório a classificou como um risco maior que o de doenças infecciosas ou atividades econômicas ilícitas.

E de fato, muito do que se esperava de ruim se materializou nessa campanha, como uma enxurrada de fake news e de deep fakes para se atacar adversários. Mas foram vistos também o uso extensivo de hologramas de políticos (inclusive de lideranças falecidas) em comícios, sintetização de áudios e vídeos de candidatos para responder, em tempo real, a dúvidas de eleitores, e a inteligência artificial analisando quantidades colossais de dados de usuários (muitos coletados ilegalmente) para apoiar a decisão de campanhas.

A IA generativa foi amplamente usada não apenas para gerar instantaneamente as respostas e o audiovisual, mas também para fazer com que o avatar do candidato falasse na língua de cada eleitor, chamando-o pelo nome. Isso é importante em um país como a Índia, que tem 23 idiomas oficiais e mais de 400 dialetos.

Se as redes sociais foram eficientes em desinformar as pessoas, a inteligência artificial agora pode encantar (e até iludir) os eleitores.

 

Mentiras cada vez mais críveis

Especialistas temem que essa tecnologia convença cada vez mais as pessoas sobre os que os candidatos quiserem, pelos conteúdos personalizados e visualmente convincentes. Além disso, muita gente pode acreditar que está realmente falando com o candidato, ao invés de seu avatar.

Há ainda outro aspecto a ser considerado: por mais que os modelos de IA sejam bem treinados para sintetizar respostas às perguntas de cada eleitor individualmente, eles podem “alucinar” e repassar informações completamente erradas ao público.

No Brasil, o Congresso não ajuda ao travar projetos de lei que poderiam organizar o uso dessas tecnologias nas eleições. As autoridades eleitorais tentam, por sua vez, impedir que esses problemas aconteçam no país, definindo regras claras para a eleição municipal desse ano, incluindo contra abusos da inteligência artificial. Ao assumir a presidência do Tribunal Superior Eleitoral (TSE) no dia 3, a ministra Cármen Lúcia fez um discurso enfatizando a responsabilidade das redes sociais no problema e o combate que fará aos usos indevidos das tecnologias digitais na desinformação.

Não será uma tarefa fácil! Três dias depois, Meta (dona do Facebook, Instagram e WhatsApp), Google (dono do YouTube), Microsoft, TikTok e Kwai aderiram ao Programa de Combate à Desinformação do Supremo Tribunal Federal (STF). O X, que se tornou um dos principais canais de fake news, não mandou representantes.

Ainda que a IA ofereça campanhas muito eficientes por uma fração do custo necessário para se obter os mesmos resultados de maneira convencional, esses recursos podem custar milhões de reais para um candidato. Isso desequilibra ainda mais a eleição entre os concorrentes ricos e os pobres.

A Índia demonstrou as incríveis oportunidades e os enormes problemas do uso da inteligência artificial em uma eleição. Regras são necessárias para disciplinar essa prática, mas bandidos são conhecidos por infringi-las, portanto não são suficientes.

Não podemos ser ingênuos! Esperar que as plataformas digitais tomem todos os devidos cuidados nas eleições é como esperar que a raposa cuide do galinheiro. E achar que todos os candidatos farão um bom uso desses recursos é como entregar as galinhas –ou seja, os eleitores– diretamente para a raposa.

É hora de aproveitar o que há de bom e redobrar a atenção para os usos nocivos da IA! É assim que a política será feita de agora em diante.

 

IA pode ser usada na eleição, mas seguindo regras para evitar fake news - Ilustração: Paulo Silvestre com Freepik/Creative Commons

Regras para IA nas eleições são positivas, mas criminosos não costumam seguir a lei

By | Tecnologia | No Comments

A tecnologia volta a ser protagonista na política, e não dá para ignorar isso em um mundo tão digital. Na terça, o Tribunal Superior Eleitoral (TSE) aprovou instruções para o pleito municipal desse ano. Os usos de redes sociais e inteligência artificial nas campanhas chamaram atenção. Mas apesar de positivas e bem-produzidas, elas não dizem como identificar e punir a totalidade de crimes eleitorais no ciberespaço, que só aumentam. Enquanto isso, a tecnologia continua favorecendo os criminosos.

Claro que a medida gerou uma polêmica instantânea! Desde 2018, as eleições brasileiras vêm crescentemente sendo decididas com forte influência do que se vê nas redes sociais, especialmente as fake news, que racharam a sociedade brasileira ao meio. Agora a inteligência artificial pode ampliar a insana polarização que elege candidatos com poucas propostas e muito ódio no discurso.

É importante que fique claro que as novas regras não impedem o uso de redes sociais ou de inteligência artificial. Seria insensato bloquear tecnologias que permeiam nossa vida e podem ajudar a melhorar a qualidade e a baratear as campanhas, o que é bem-vindo, especialmente para candidatos mais pobres. Mas não podemos ser inocentes e achar que os políticos farão apenas usos positivos de tanto poder em suas mãos.

Infelizmente a solução para essas más práticas do mundo digital não acontecerá apenas com regulamentos. Esse é também um dilema tecnológico e as plataformas digitais precisam se envolver com seriedade nesse esforço.


Veja esse artigo em vídeo:


A iniciativa do TSE não é isolada. A preocupação com o impacto político do meio digital atingiu um pico no mundo em 2024, ano com 83 eleições ao redor do globo, a maior concentração pelos próximos 24 anos. Isso inclui algumas das maiores democracias do mundo, como Índia, Estados Unidos e Brasil, o que fará com que cerca de metade dos eleitores do planeta depositem seus votos até dezembro.

As regras do TSE procuram ajudar o eleitor a se decidir com informações verdadeiras. Por isso, determinam que qualquer texto, áudio, imagem ou vídeo que tenha sido produzido ou manipulado por IA seja claramente identificado como tal. Além disso, proíbem que sejam criados sistemas que simulem conversas entre o eleitor e qualquer pessoa, inclusive o candidato. Vedam ainda as deep fakes, técnica que cria áudios e vídeos falsos que simulam uma pessoa dizendo ou fazendo algo que jamais aconteceu.

Além de não praticar nada disso, candidatos e partidos deverão denunciar fraudes à Justiça Eleitoral. As plataformas digitais, por sua vez, deverão agir por conta própria, sem receberem ordens judiciais, identificando e removendo conteúdos que claramente sejam falsos, antidemocráticos ou incitem ódio, racismo ou outros crimes. Se não fizerem isso, as empresas podem ser punidas. Candidatos que infringirem as regras podem ter a candidatura e o mandato cassados (no caso de já terem sido eleitos).

Outra inovação é equiparar as redes sociais aos meios de comunicação tradicionais, como jornal, rádio e TV, aplicando a elas as mesmas regras. Alguns especialistas temem que esse conjunto de medidas faça com que as plataformas digitais exagerem nas restrições, eliminando conteúdos a princípio legítimos, por temor a punições. E há ainda o interminável debate se elas seriam capazes de identificar todos os conteúdos problemáticos de maneira automática.

Os desenvolvedores estão se mexendo, especialmente por pressões semelhantes que sofrem nos Estados Unidos e na União Europeia. Em janeiro, 20 empresas de tecnologia assinaram um compromisso voluntário para ajudar a evitar que a IA atrapalhe nos pleitos. A OpenAI, criadora do ChatGPT, e o Google, dono do concorrente Gemini, anunciaram que estão ajustando suas plataformas para que não atendam a pedidos ligados a eleições. A Meta, dona do Facebook, do Instagram e do WhatsApp, disse que está refinando técnicas para identificar e rotular conteúdos criados ou modificados por inteligência artificial.

Tudo isso é necessário e espero que não se resuma apenas a “cortinas de fumaça” ou “leis para inglês ver”. Mas resta descobrir como fiscalizar as ações da parte ao mesmo tempo mais frágil e mais difícil de ser verificada: o usuário.

 

Ajudando o adversário a se enforcar

Por mais que os políticos e as big techs façam tudo que puderem para um bom uso desses recursos, o maior desafio recai sobre os cidadãos, seja um engajado correligionário (instruído ou não pelas campanhas), seja um inocente “tio do Zap”. Esses indivíduos podem produzir e distribuir grande quantidade de conteúdo incendiário e escapar da visão do TSE. Pior ainda: podem criar publicações ilegais como se fossem o adversário deliberadamente para que ele seja punido.

O tribunal não quer que se repita aqui o que foi visto na eleição presidencial argentina, em novembro. Lá as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para denegrir a imagens dos adversários.

Em outro caso internacional, os moradores de New Hampshire (EUA) receberam ligações de um robô com a voz do presidente Joe Biden dizendo para que não votassem nas primárias do Estado, no mês passado. Por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, circulou em dezembro com ofensas contra professores. Os dois casos eram falsos.

Esse é um “jogo de gato e rato”, pois a tecnologia evolui muito mais rapidamente que a legislação, e os criminosos se valem disso. Mas o gato tem que se mexer!

Aqueles que se beneficiam desses crimes são os que buscam confundir a população. Seu discurso tenta rotular essas regras como cerceamento da liberdade de expressão. Isso não é verdade, pois todos podem continuar dizendo o que quiserem. Apenas pagarão no caso de cometerem crimes que sempre foram claramente tipificados.

Há ainda o temor dessas medidas atrapalharem a inovação, o que também é questionável. Alguns setores fortemente regulados, como o farmacêutico e o automobilístico, estão entre os mais inovadores. Por outro lado, produtos reconhecidamente nocivos devem ser coibidos, como os da indústria do cigarro.

A inteligência artificial vem eliminando a fronteira entre conteúdos verdadeiros e falsos. Não se pode achar que os cidadãos (até especialistas) consigam identificar mentiras tão bem-criadas, mesmo impactando decisivamente seu futuro. E as big techs reconhecidamente fazem menos do que poderiam e deveriam para se evitar isso.

Ausência de regras não torna uma sociedade livre, mas anárquica. A verdadeira liberdade vem de termos acesso a informações confiáveis que nos ajudem a fazer as melhores escolhas para uma sociedade melhor e mais justa para todos.

Ao invés de atrapalhar, a tecnologia deve nos ajudar nessa tarefa. E ela pode fazer isso!

 

Criada por IA, Ren Xiaorong é a âncora do telejornal “Diário do Povo”, controlado pelo governo chinês - Foto: reprodução

IA agora produz e publica notícias, aumentando os riscos de desinformação

By | Jornalismo, Tecnologia | No Comments

O que você sentiria se o presidente da República telefonasse a você para lhe convencer de algo? Ou se alguém bem próximo, como um sobrinho ou até um filho, enviasse um áudio pedindo dinheiro? Muita gente desconfiaria que se trata de um golpe. Mas o rápido avanço da inteligência artificial está tornando esse tipo de engodo cada vez mais crível, fazendo vítimas em todos os estratos sociais.

Portanto, cuidado ao gritar que jamais cairá em algo assim. Por muito menos, todo mundo já acreditou em alguma fake news!

A ameaça cresce quando se observa que o uso da IA vai muito além da produção de textos, áudios e vídeos bem-feitos. Os robôs agora constroem sequências de notícias falsas sobre temas que lhes forem solicitados. Além disso, eles as distribuem de maneiras cada vez mais criativas, até como se fossem jornalistas humanos.

Não por acaso, em janeiro, o Fórum Econômico Mundial apontou a desinformação potencializada pela inteligência artificial como o maior risco que a humanidade enfrentará nos próximos anos.

As big techs, responsáveis pela criação dessas plataformas, estão se mexendo. No mesmo Fórum, Nick Clegg, presidente de assuntos globais da Meta (dona do Facebook, Instagram e WhatsApp), anunciou que a empresa está trabalhando com os principais nomes do setor para criar mecanismos que identifiquem claramente que um conteúdo foi sintetizado por IA. O executivo classificou a iniciativa como “a tarefa mais urgente” da indústria tecnológica atualmente.

Já passamos há anos do ponto em que as versões ficaram mais “importantes” para o público que os fatos, e falhamos miseravelmente no combate a isso, com consequências desastrosas. Nesse ano, com mais de 2 bilhões de pessoas votando em 58 países, o desafio de todos passa a ser não apenas resgatar o valor da verdade, como também serem capazes de identificá-la.


Veja esse artigo em vídeo:


Isso já acontece, inclusive onde estão as sedes das big techs: os EUA. O país começou 2024 com a polarização nas alturas pela eleição presidencial em novembro, que deve colocar novamente o atual presidente, Joe Biden, frente a seu antecessor, Donald Trump. O primeiro já vem sendo vítima de vídeos falsos desde o ano passado.

Recentemente, eleitores do Estado de New Hampshire receberam telefonemas com a voz de Biden enganando-os para não votarem na eleição primária local. Isso fez com que o governo proibisse o uso de IA para simular vozes em ligações automáticas no país.

Legislações costumam chegar atrasadas e muitas vezes são ineficientes, diante da velocidade da inovação. O debate sobre regulamentar redes sociais e agora a inteligência artificial vem deixando claro que se focar nas tecnologias é infrutífero, devendo se concentrar na responsabilização dos desenvolvedores e dos usuários que usam esses recursos indevidamente.

O grande problema é que, com ou sem regras claras, os vilões –sejam empresas ou usuários– continuam fazendo o que bem entendem para garantir seus lucros ou outros objetivos. A IA deve facilitar esse processo ainda mais, e eles sabem disso.

A imprensa historicamente desempenha o papel de proteger a sociedade desse tipo de abuso, mas ela própria vem sendo impactada pela inteligência artificial, seja em seus próprios processos, seja na concorrência de “pseudojornalistas digitais” que tentam enganar o público.

O Reuters Institute divulgou em janeiro um detalhado estudo sobre as perspectivas para esse ano sobre jornalismo, mídia e tecnologia. O documento reconhece esses desafios, destacando que a maioria do conteúdo na Internet será produzido por IA já em 2026. Segundo os pesquisadores, isso exige que jornalistas e empresas noticiosas repensem seu papel e propósito urgentemente.

 

“Jornalistas sintéticos”

Essas empresas já observam queda na sua audiência vinda de redes sociais, que passaram a privilegiar criadores no estilo TikTok ao invés de jornalismo, pois isso lhes favorece. O desafio do jornalismo aumenta com o crescimento das “Experiências Generativas de Busca”, um recurso de buscadores como Google e Bing, em que a IA generativa redige parágrafos que explicam brevemente o que o usuário procura. Com isso, ele não precisa mais visitar as páginas de onde as informações foram tiradas.

Em outras palavras, os veículos de comunicação alimentam essas plataformas e não ganham nem mesmo a visita do usuário em troca. É quase como se cada um de nós agora tivesse um “jornalista sintético” a nossa disposição para nos explicar qualquer assunto.

Parece ótimo, mas isso embute um risco enorme: esses parágrafos podem misturar alegremente informações jornalísticas de qualidade com fake news bizarras. Portanto, podem se converter em poderosas ferramentas de desinformação, além de achatar a audiência dos veículos de comunicação.

Pesquisadores acreditam que, nesse ano, plataformas de inteligência artificial também passem a produzir grandes volumes de desinformação, não mais dependendo de comando individuais, mas seguindo diretrizes mais amplas. Como a publicação é automática, isso pode inundar as redes sociais com informações falsas, que soterrariam o conteúdo jornalístico diante dos algoritmos. Além disso, países como China e até Venezuela já usam avatares ultrarrealistas que se passam por jornalistas humanos e despudoradamente leem notícias que lhes forem ordenadas.

O relatório do Reuters Institute indica que as empresas de comunicação pretendem reforçar o contato direto com seu público, em detrimento das plataformas digitais. Mas isso pode afastá-las ainda mais de sua audiência mais jovem e menos instruída, que se sente satisfeita com as notícias geradas por IA.

A inteligência artificial é uma ferramenta fabulosa e estamos em um caminho sem volta para sua adoção em todos os setores da economia, inclusive na comunicação. Apesar de todos esses desafios, ela também oferece muitos ganhos ao jornalismo, se bem usada.

O risco a que todos nós –e não apenas jornalistas– temos que estar atentos é a possibilidade de decisões básicas da sociedade civil, como em quem votar, sejam sequestradas por robôs sem ética. As empresas de comunicação não podem repetir com a IA o erro que cometeram ao desprezar o poder das redes sociais, quando ainda estavam começando. Precisam compreender e se apropriar dessa tecnologia, e ajudar toda a sociedade a fazer o mesmo.

Caso contrário, seremos cada vez mais cidadãos teleguiados.

 

Uma inteligência artificial treinada com informações ruins não deve ser usada para confundir eleitores – Ilustração: Paulo Silvestre

A democracia precisa que o jornalismo e a inteligência artificial se entendam

By | Jornalismo, Tecnologia | No Comments

A recente briga do New York Times contra a Microsoft e a OpenAI (criadora do ChatGPT) pode ajudar a definir como nos informaremos no futuro e impactar consideravelmente a saúde da democracia no mundo todo. Tudo porque o processo aberto pelo jornal no dia 27 de dezembro contra as duas empresas de tecnologia pode balizar a qualidade do que a inteligência artificial oferecerá a todos nós.

O jornal afirma que seu conteúdo vem sendo usado para treinar as plataformas de IA, sem que seja remunerado ou sequer tenha autorizado esse uso, o que é verdade. Enquanto isso, essas plataformas rendem bilhões de dólares a seus donos.

Desde que o ChatGPT foi lançado no final de 2022, as pessoas vêm usando a IA para trabalhar, estudar e se divertir, acreditando candidamente em suas entregas. Sua precisão e seus recursos para evitar que produza e dissemine fake news dependem profundamente da qualidade do conteúdo usado em seu treinamento. O New York Times e outros grandes veículos jornalísticos são, portanto, algumas das melhores fontes para garantir uma entrega mais confiável aos usuários.

O problema é tão grave que, no dia 10, o Fórum Econômico Mundial indicou, em seu relatório Riscos Globais 2024, que informações falsas ou distorcidas produzidas por inteligência artificial já representam o “maior risco global no curto prazo”.

Nesse ano, dois bilhões de pessoas participarão de eleições no mundo, inclusive no Brasil, e a IA já vem sendo usada para aumentar a desinformação nas campanhas. Por aqui, o Tribunal Superior Eleitoral (TSE) busca maneiras de regular seu uso no pleito municipal de outubro, uma tarefa muito complexa. Por isso, é fundamental que os bons produtores de conteúdo e as big techs encontrem formas de melhorar essas plataformas respeitando os direitos e remunerando adequadamente os autores.


Veja esse artigo em vídeo:


Em um cenário extremo hipotético em que todos os produtores de bons conteúdos impeçam que os desenvolvedores os acessem, a IA ficaria à mercê de fontes pouco confiáveis (para dizer o mínimo). Isso aumentaria brutalmente a chance de ela ser manipulada, ajudando a transformar os usuários em autômatos da desinformação. E isso seria trágico também para o bom jornalismo, que luta fortemente contra isso.

Criou-se então um dilema: as plataformas precisam de bom conteúdo, mas não estão muito dispostas a pagar por ele, enquanto os veículos jornalísticos têm que garantir seus direitos, mas deveriam ajudar a melhorar as entregas da inteligência artificial.

“Quando eu compro uma assinatura do New York Times, eu não estou autorizado a pegar todo o conteúdo e desenvolver um produto meu em cima dele”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Só que é mais ou menos isso que a OpenAI faz quando pega esses dados”.

Para que os sistemas de inteligência artificial funcionem bem, eles precisam ser treinados com uma quantidade monstruosa de informações diversas, para que aprendam o que dizer e respeitem a diversidade de ideias. Em tese, todas as suas produções são inéditas, por isso os desenvolvedores se valem do conceito jurídico americano do “uso justo” (“fair use”), que protege as big techs há pelo menos duas décadas, quando, por exemplo, rastreiam a Internet inteira para fazer um buscador funcionar.

Por essa regra, os produtos digitais exibiriam apenas pequenos trechos desses conteúdos, insuficientes para configurar uma concorrência. Mas em seu processo, o New York Times afirma que as plataformas de IA exibiriam literalmente grandes nacos de sua produção, inclusive de material exclusivo a seus assinantes. A OpenAI nega.

É um desafio para a Justiça dos EUA, pois as leis do país proíbem a cópia de conteúdo, mas permitem que se criem produtos combinando elementos de diferentes fontes, sem criar concorrência direta. As plataformas de IA fazem as duas coisas.

 

Ameaça à democracia

Nesse pântano jurídico, grupos políticos já vêm se esbaldando nos recursos da inteligência artificial para convencer –ou mais especificamente confundir– os eleitores.

O TSE tenta encontrar formas de pelo menos dificultar que isso aconteça nas eleições brasileiras. No dia 4, publicou dez minutas de resoluções para esse fim. Esses textos estarão em consulta pública até o dia 19 deste mês. Entre 23 e 25 de janeiro, ocorrerão audiências abertas na Corte para o aperfeiçoamento das normas.

Infelizmente, criar ótimas regras é relativamente fácil. Verificar seu cumprimento, por outro lado, é bem difícil, especialmente nas campanhas não-oficiais, realizadas por eleitores diretamente instruídos pelos candidatos ou espontaneamente. Com isso, o gigantesco problema de disseminação de fake news e discursos de ódio em redes sociais (que fazem muito menos do que deveriam para combater isso) agora deve ser potencializado pelo uso da inteligência artificial igualmente não-regulada.

A solução exige, portanto, a participação da Justiça, dos veículos de comunicação e das big techs das redes sociais e de inteligência artificial. Felizmente há também movimentos positivos de consenso.

Segundo o mesmo New York Times, a Apple, que está atrasada no campo da IA, estaria tentando costurar acordos financeiros para justamente usar os conteúdos de grandes empresas de comunicação para o treinamento da sua plataforma em desenvolvimento. A notícia só não é totalmente positiva porque ela estaria interessada em consumir esse conteúdo, mas não em responder por qualquer problema derivado dele, o que está deixando os editores desses veículos desconfortáveis. E eles andam bem desconfiados por seus acordos prévios com o Vale do Silício, que, ao longo dos anos, favoreceram as big techs, enquanto viam seus negócios minguarem.

Tudo isso envolve interesses de bilhões de dólares e moldará a sociedade decisivamente nos próximos anos. É preciso um desenvolvimento responsável e transparente da tecnologia e uma enorme quantidade de boas informações. “Pode ser que a gente tenha modelos de inteligência artificial que sejam focados na maldade”, sugere Crespo. “É que ninguém parou para fazer isso ainda ou talvez ninguém tenha tanto dinheiro para isso.”

Alguns acreditam que a solução seria educar a população para não acreditar tão facilmente no que veem nas redes sociais e agora na inteligência artificial. No mundo ideal, isso resolveria o problema. Mas isso simplesmente não vai acontecer e as pessoas continuarão sendo manipuladas, agora possivelmente ainda mais.

Os já citados atores precisam dar as mãos para evitar o pior. Os veículos de comunicação devem alimentar a IA, mas de maneira justa, sem que isso ameace sua sobrevivência. As big techs precisam se abrir a esses acordos financeiros e se esforçar muito mais na transparência de seus sistemas e no respeito aos usuários e à própria democracia. E a Justiça precisa encontrar meios de regular tudo isso, sem ameaçar o avanço tecnológico.

Em um mundo tão digitalizado, a democracia depende do sucesso dessa união.

 

Para Salvador Dalí, “você tem que criar a confusão sistematicamente; isso liberta a criatividade” - Foto: Allan Warren/Creative Commons

Não “terceirize” sua criatividade para as máquinas!

By | Tecnologia | No Comments

Quando o ChatGPT foi lançado, em 30 de novembro de 2022, muita gente disse que, com ele, as pessoas começariam a ficar “intelectualmente preguiçosas”, pois entregariam à inteligência artificial até tarefas que poderiam fazer sem dificuldade. De lá para cá, observamos mesmo muitos casos assim, inclusive com resultados desastrosos. Mas o que também tenho observado é algo mais grave, ainda que mais sutil: indivíduos “terceirizando” a sua criatividade para as máquinas.

Quando fazemos um desenho, tiramos uma foto, compomos uma música ou escrevemos um texto, que pode ser um singelo post para redes sociais, exercitamos habilidades e ativamos conexões neurológicas essenciais para o nosso desenvolvimento. Ao entregar essas atividades à máquina, essas pessoas não percebem o risco que correm por realizarem menos essas ações.

Há um outro aspecto que não pode ser ignorado: a nossa criatividade nos define como seres humanos e como indivíduos. Por isso, adolescentes exercitam intensamente sua criatividade para encontrar seu lugar no mundo e definir seus grupos sociais.

A inteligência artificial generativa é uma ferramenta fabulosa que está apenas dando seus passos iniciais. Por mais que melhore no futuro breve (e melhorará exponencialmente), suas produções resultam do que essas plataformas aprendem de uma base gigantesca que representa a média do que a humanidade sabe.

Ao entregarmos aos robôs não apenas nossas tarefas, mas também nossa criatividade, ameaçamos nossa identidade e a nossa humanidade. Esse é um ótimo exemplo de como usar muito mal uma boa tecnologia. E infelizmente as pessoas não estão percebendo isso.


Veja esse artigo em vídeo:


Assim como nossa carga genética, algo que nos diferencia dos outros indivíduos são nossas ideias. Apesar de fazermos isso naturalmente, ter uma ideia original é um processo complexo, que combina tudo que aprendemos em nossa vida com os estímulos que estivermos recebendo no momento. Além disso, ela é moldada por nossos valores, que são alinhados com os grupos sociais a que pertencemos. E nossa subjetividade ainda refina tudo isso.

Mesmo a mais fabulosa inteligência artificial possui apenas a primeira dessas etapas para suas produções, que é o que aprendeu de sua enorme base de informações coletadas das mais diferentes fontes. É por isso que a qualidade do que produz depende implicitamente da qualidade dessas fontes.

Alguns argumentam que a inteligência artificial também pode desenvolver valores a partir de sua programação, dos dados que consome e da própria interação com os usuários. De fato, um dos maiores problemas dessa tecnologia são os vieses que acaba desenvolvendo, o que piora suas entregas.

Com valores, a máquina se aproxima mais do processo criativo humano. Mas a inteligência artificial ainda não pode ser chamada de criativa, justamente pela etapa final, conduzida pela nossa subjetividade. Os padrões que aprendemos em nossa história de vida única nos permitem ir além de simples deduções lógicas no processo criativo. Para as máquinas, por outro lado, esses mesmos padrões tornam-se limitadores.

Gosto de pensar que o processo criativo é algo que nos conecta com algo sublime, alguns diriam com algo divino. Quando escrevo, por exemplo, um artigo como esse, combino grande quantidade de informações que coletei para essa tarefa com o que aprendi ao longo da minha vida. Mas a fagulha criativa que faz com que isso não seja uma composição burocrática e chata (assim espero) só acontece ao me abrir intensamente para minha sensibilidade.

Jamais entregaria isso a uma máquina, pois isso me define e me dá grande prazer!

 

Nós nos tornaremos máquinas?

Em seu livro “Tecnologia Versus Humanidade” (The Futures Agency, 2017), Gerd Leonhard questiona, anos antes do ChatGPT vir ao sol, como devemos abraçar a tecnologia sem nos tornarmos parte dela. Para o futurólogo alemão, precisamos definir quais valores morais devemos defender, antes que o ser humano altere o seu próprio significado pela interação com as máquinas.

Essas não são palavras vazias. Basta olhar nosso passado recente para ver como a nossa interação incrivelmente intensa com a tecnologia digital nos transformou nos últimos anos, a começar pela polarização irracional que fraturou a sociedade.

O mais terrível disso tudo é que as ideias que nos levaram a isso não são nossas, e sim de grupos que se beneficiam desse caos. Eles souberam manipular os algoritmos das redes sociais para disseminar suas visões, não de maneira óbvia e explícita, mas distribuindo elementos aparentemente não-relacionados (mas cuidadosamente escolhidos) para que as pessoas concluíssem coisas que interessavam a esses poderosos. E uma vez que essa conclusão acontece, fica muito difícil retirar essa ideia da cabeça do indivíduo, pois ele pensa que ela é genuinamente dele.

Se as redes sociais se prestam até hoje a distorcer o processo de nascimento de ideias, a inteligência artificial pode agravar esse quadro na etapa seguinte, que é a nutrição dessas mesmas ideias. Como uma plantinha, elas precisam ser regadas para que cresçam com força.

Em um artigo publicado na semana passada, a professora da PUC-SP Lucia Santaella, autoridade global em semiótica, argumenta que o nosso uso da inteligência artificial generativa criou um novo tipo de leitor, que ela batizou de “leitor iterativo”. Afinal, não lemos apenas palavras: lemos imagens, gráficos, cores, símbolos e a própria natureza.

Com a IA generativa, entramos em um processo cognitivo inédito pelas conversas com essas plataformas. Segundo Santaella, o processo iterativo avança por refinamentos sucessivos, e os chatbots respondem tanto pelo que sabem, quanto pelos estímulos que recebem. Dessa forma, quanto mais iterativo for o usuário sobre o que deseja, melhores serão as respostas.

Isso reforça a minha proposta original de que não podemos “terceirizar” nossa criatividade para a inteligência artificial. Até mesmo a qualidade do que ela nos entrega depende do nível de como nos relacionamos com ela.

Temos que nos apropriar das incríveis possibilidades da inteligência artificial, uma ferramenta que provavelmente potencializará pessoas e empresas que se destacarão nos próximos anos. Mas não podemos abandonar nossa criatividade nesse processo. Pelo contrário: aqueles que mais se beneficiarão das máquinas são justamente os que maximizarem a sua humanidade.

 

Taylor Swift e suas cópias, que podem ser geradas por IA para convencer as pessoas - Foto: Paulo Silvestre com Creative Commons

Pessoas se tornam vítimas de bandidos por acreditarem no que desejam

By | Tecnologia | No Comments

Usar famosos para vender qualquer coisa sempre foi um recurso poderoso do marketing. Mas agora as imagens e as vozes dessas pessoas estão sendo usadas sem sua permissão ou seu conhecimento para promover produtos que eles jamais endossariam e sem que ganhem nada com isso.

Esse conteúdo falso é criado por inteligência artificial e está cada vez mais convincente. Além de anunciar todo tipo de quinquilharia, esses “deep fakes”, como é conhecida essa técnica, podem ser usados para convencer as massas muito além da venda de produtos, envolvendo aspectos políticos e até para se destruir reputações.

O processo todo fica ainda mais eficiente porque as pessoas acreditam mais naquilo que desejam, seja em uma “pílula milagrosa de emagrecimento” ou nas ideias insanas de seu “político de estimação”. Portanto, os bandidos usam os algoritmos das redes sociais para direcionar o conteúdo falso para quem gostaria que aquilo fosse verdade.

Há um outro aspecto mais sério: cresce também o uso de deep fakes de pessoas anônimas para a aplicação de golpes em amigos e familiares. Afinal, é mais fácil acreditar em alguém conhecido. Esse recurso também é usado por desafetos, por exemplo criando e distribuindo imagens pornográficas falsas de suas vítimas.


Veja esse artigo em vídeo:


As redes sociais, que são os maiores vetores da desinformação, agora se deparam sob pressão com o desafio de identificar esse conteúdo falso criado por IA para prejudicar outras pessoas. Mas seus termos de uso e até alguns de seus recursos tornam essa tarefa mais complexa que as dificuldades inerentes da tecnologia.

Por exemplo, redes como TikTok e Instagram oferecem filtros com inteligência artificial para que seus usuários alterem (e supostamente “melhorem”) suas próprias imagens, uma distorção da realidade que especialistas afirmam criar problemas de autoestima, principalmente entre adolescentes. Além disso, muitas dessas plataformas permitem deep fakes em algumas situações, como paródias. Isso pode tornar esse controle ainda mais difícil, pois uma mentira, uma desinformação, um discurso de ódio pode se esconder subliminarmente nos limites do aceitável.

O deep fake surgiu em 2017, mas seu uso explodiu nesse ano graças ao barateamento das ferramentas e à melhora de seus resultados. Além disso, algumas dessas plataformas passaram a convincentemente simular a voz e o jeito de falar de celebridades. Também aprendem o estilo de qualquer pessoa, para “colocar na sua boca” qualquer coisa. Basta treiná-las com alguns minutos de áudio do indivíduo. O “pacote da enganação” se completa com ferramentas que geram imagens e vídeos falsos. Na prática, é possível simular qualquer pessoa falando e fazendo de tudo!

A complexidade do problema cresce ao transcender as simulações grosseiras e óbvias. Mesmo a pessoa mais ingênua pode não acreditar ao ver um vídeo de uma celebridade de grande reputação destilando insanidades. Por isso, o problema maior não reside em um “fake” dizendo um absurdo, mas ao falar algo que o “original” poderia ter dito, mas não disse. E nessa zona cinzenta atuam os criminosos.

Um exemplo pôde ser visto na terça passada (5), quando o apresentador esportivo Galvão Bueno, 73, precisou usar suas redes sociais para denunciar um vídeo com uma voz que parecia ser a sua insultando Ednaldo Rodrigues, presidente da Confederação Brasileira de Futebol (CBF). “Fizeram uma montagem com coisas que eu nunca disse e eu nunca diria”, disse Galvão em sua defesa.

Ele não disse mesmo aquilo, mas poucos estranhariam se tivesse dito! Duas semanas antes, após a derrota da seleção brasileira para a argentina nas eliminatórias da Copa do Mundo, o apresentador fez duras críticas ao mesmo presidente. Vale dizer que há uma guerra pela liderança da CBF, e Rodrigues acabou sendo destituído do cargo no dia 7, pela Justiça do Rio.

 

Ressuscitando os mortos

O deep fake de famosos já gerou um enorme debate no Brasil nesse ano. No dia 3 de julho, um comercial sobre os 70 anos da Volkswagen no país provocou polêmica ao colocar a cantora Elis Regina (morta em 1982) cantando ao lado da filha Maria Rita. Elis aparece no filme dirigindo um antigo modelo de Kombi, enquanto a filha aparece ao volante de uma ID.Buzz, furgão elétrico recém-lançado, chamado de “Nova Kombi”.

Muita gente questionou o uso da imagem de Elis. Mas vale dizer que, nesse caso, os produtores tiveram a autorização da família para o uso de sua imagem. Além disso, ninguém jamais propôs enganar o público para que achasse que Elis estivesse viva.

Outro exemplo aconteceu na recente eleição presidencial argentina. Durante a campanha, surgiram imagens e vídeos dos dois candidatos que foram ao segundo turno fazendo coisas condenáveis. Em um deles, o candidato derrotado, Sergio Massa, aparece cheirando cocaína. Por mais que tenha sido desmentido, ele “viralizou” nas redes e pode ter influenciado o voto de muita gente. Tanto que, no Brasil, o Tribunal Superior Eleitoral (TSE) já se prepara para combater a prática nas eleições municipais de 2024.

Na época do comercial da Volkswagen, conversei sobre o tema com Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, “ficará mais difícil, a olho nu, detectar o que é verdadeiro”, restando aos peritos identificar as falsificações. “O desafio, daqui para frente, é que será mais comum ver esse tipo de debate na Justiça”, acrescentou.

Essa é uma preocupação mundial. As fake news mais eficientes não escancaram uma informação falsa “completa”. Ao invés disso, o conceito que pretendem impor é apresentado aos poucos, em pequenos elementos aparentemente desconexos, mas criteriosamente entregues, para que a pessoa conclua “sozinha” o que os criminosos querem. Quando isso acontece, fica difícil convencê-la do contrário.

Não há clareza sobre como resolver esse problema. Os especialistas sugerem que exista algum tipo de regulamentação, mas ela precisa equilibrar a liberdade para se inovar e a garantia dos interesses da sociedade. Sem isso, podemos ver uma enorme ampliação da tragédia das fake news, construída por redes sociais que continuam não sendo responsabilizadas por disseminá-las.

Como determina a Constituição, todos podem dizer o que quiserem, mas respondem por isso. O desafio agora é que não se sabe mais se a pessoa disse o que parece ter dito de maneira cristalina diante de nossos olhos e ouvidos.

 

Um dos problemas derivados da queda na confiança na imprensa é a crescente agressão a jornalistas – Foto: reprodução

As razões para mordermos a mão que nos alimenta

By | Jornalismo | No Comments

Um dos sinais da falência de uma sociedade é quando as pessoas deixam de acreditar nas instituições democráticas. Quando não se confia em nada ou em ninguém, perde-se a capacidade essencial de se buscar o bem comum com o outro. Por isso, pesquisas recentes do prestigioso instituto Pew Research Center, que demonstram a baixa confiança da população na imprensa, me impactam, mas não me surpreendem. E isso é um sintoma que deveria preocupar todo mundo.

Segundo os levantamentos, apenas 38% dos americanos adultos se informam “o tempo todo ou quase o tempo todo”. Além disso, só 15% acreditam “muito” e 46% “um pouco” nos veículos jornalísticos nacionais. Em compensação, 14% buscam notícias no TikTok (32% entre os que têm de 18 a 29 anos), que ainda fica atrás do Instagram (16%), do YouTube (26%) e do Facebook (30%).

O mesmo instituto já havia indicado que o aumento de informações nas redes sociais é inversamente proporcional a sua qualidade, e que o público que as utiliza como principal fonte de informação é menos engajado, informado e capaz de demonstrar bom discernimento, se comparado a quem se informa pela imprensa.

Pelas minhas observações, arriscaria dizer que temos números semelhantes no Brasil.

Todos perdem muito com esse divórcio entre a imprensa e seu público, e cada um tem seu papel e razões. Mas isso precisa ser revertido! As bolhas de pensamento único, que nos maltratam diariamente, impedem que vivamos em uma sociedade com cidadãos mais conscientes e capazes de se desenvolver.


Veja esse artigo em vídeo:


Há mau jornalismo hoje, como sempre houve, porém, há mais bom jornalismo que mau na mídia profissional. Entretanto parte da população aprendeu a ver só o que a desagrada, generalizando como se toda a imprensa fosse pouco confiável.

Vale notar que, até o início do século, não se questionava a importância do jornalismo para o desenvolvimento pessoal. Uma boa informação era um diferencial que resultava em melhores empregos e outras oportunidades na vida. Ler jornais era sinônimo de pertencer à elite intelectual, mesmo que não fosse da elite econômica. E ser jornalista era uma das profissões mais desejadas pelos jovens.

A grande diferença é que, com a ascensão das redes sociais, os veículos de comunicação deixaram de ser os únicos capazes de trazer notícias. Todos nós nos tornamos mídia e somos capazes de produzir enormes quantidades de informação (o que é muito diferente de notícia). Diante disso, muitos grupos de poder descobriram uma nova maneira de dominar as massas, mas, para isso, precisavam usar o meio digital para desacreditar a imprensa, que teima em lhes fiscalizar.

O combate à mídia pelos poderosos não é algo novo: apenas ganhou escala com o meio digital. Joseph Goebbels, ministro da propaganda de Adolf Hitler, foi essencial para seu poder, ao criar uma máquina de silenciar a imprensa e vozes dissonantes. Décadas depois, o venezuelano Hugo Chávez contribuiu com o processo, criando a ideia de que, se a mídia fosse contra ele, seria “contra o povo”. E demonstrando que o combate à imprensa não segue ideologia, Donald Trump se notabilizou por ignorar solenemente a verdade e usar o meio digital para impor seus interesses como fatos.

O Brasil também deu suas contribuições. Lula, desde seu primeiro mandato, desqualifica a imprensa e tenta lhe impor seu “controle social”. Jair Bolsonaro, por sua vez, instituiu ataques explícitos a jornais e jornalistas, especialmente mulheres, incendiando a população contra a mídia.

Como resultado, as pessoas só querem ver conteúdos que afaguem seu ego e concordem com seus pensamentos. E essa é uma perigosa zona de conforto.

 

Desagradando seu público

Mas o jornalismo não é feito para agradar. Na verdade, se estiver desagradando alguém, deve estar fazendo um bom trabalho.

Todo governo gostaria de ter uma imprensa dócil. Mas, se fizer isso, não é jornalismo: é relações públicas. Ela deve informar e formar o cidadão e protegê-lo dos interesses de grupos políticos, econômicos ou ideológicos, fiscalizando o poder.

Como disse certa vez o grande cartunista e jornalista Millôr Fernandes, “imprensa é oposição, o resto é armazém de secos e molhados.”

Às vezes, o jornalismo deve desagradar até seu próprio público, para forçá-lo a sair daquela zona de conforto perversa. Mas quando tudo vira “pão e circo”, isso coloca os veículos em uma situação delicada: como fazer isso se as pessoas –cada vez mais intransigentes– já estão “com um pé para fora” do jornalismo?

Os veículos têm sua culpa, ao se desconectar dos anseios e da linguagem do público. A distribuição e até seu modelo de negócios também estão ultrapassados. Diante disso, não é de se estranhar que tão pouca gente confie no jornalismo e menos ainda esteja disposto a pagar por ele. Os veículos de comunicação e seu público não conseguem mais ler os sinais uns dos outros.

Permitam-me aqui uma analogia abusada: um animal de estimação amoroso pode morder quem o alimenta como forma extrema de comunicar seu descontentamento. Um dos principais motivos é o animal não entender os sinais do tutor. Nesse caso, fica difícil saber quem é o cachorro e quem é o tutor, pois público e imprensa dependem um do outro, e nenhum está conseguindo entender os sinais alheios.

Mas em tempos tão sombrios e confusos, ambos precisam reaprender isso. Como qualquer atividade humana, o jornalismo é imperfeito, e essa atual situação faz com que sua margem de erro esteja reduzidíssima. Ele precisa ouvir novamente as demandas e falar a linguagem do público.

As pessoas, por sua vez, precisam colaborar, reconhecendo que, sem jornalismo profissional, perderiam elementos essenciais no seu cotidiano. Não saberiam, por exemplo, dos escândalos do governo atual, do anterior e de qualquer outro, ou as diferentes perspectivas sobre a guerra na Ucrânia e o conflito entre Israel e o Hamas. Não teriam se vacinado contra a Covid-19 (e muitíssimo mais gente teria morrido), e não conheceriam as potencialidades da inteligência artificial ou os riscos das redes sociais. Não saberiam dos bastidores dos filmes importantes, e nem compreenderiam a crise da Seleção Brasileira. Tudo isso se fala nas redes sociais, mas é o jornalismo que descobre, noticia e explica.

Não há atalho: a imprensa precisa se reconectar com o seu público e vice-versa. É preciso reconquistar a confiança perdida! Isso não se faz com “caça-cliques”, mas com seriedade e transparência.

O jornalismo não pode se render à lógica perversa das redes sociais, que disseminam ódio, intransigência e o pensamento único. A confiança é uma via de mão dupla e benéfica para toda sociedade. Mas ela só existe quando todos estiverem dispostos a falar e ouvir civilizadamente, sem morder a mão um do outro.

 

Neo luta contra o Agente Smith em “Matrix Revolutions” (2003): mundo digital criado para iludir a humanidade - Foto: divulgação

Se deixarmos, a inteligência artificial escolherá o próximo presidente

By | Tecnologia | No Comments

Nas eleições de 2018, eu disse que o presidente eleito naquele ano seria o que usasse melhor as redes sociais, e isso aconteceu. Em 2022, antecipei a guerra das fake news, que iludiram o eleitorado. Para o pleito de 2026, receio que a tecnologia digital ocupe um espaço ainda maior em nossas decisões, dessa vez pelo uso irresponsável da inteligência artificial.

Não estou dizendo que a IA escolherá por sua conta qual é o melhor candidato. A despeito de um medo difuso de que máquinas inteligentes nos exterminem, isso não deve acontecer porque, pelo menos no seu estágio atual, elas não têm iniciativa ou vontade própria: fazem apenas o que lhes pedimos. Os processos não são iniciados por elas. Temos que cuidar para que isso continue dessa forma.

Ainda assim, a inteligência artificial generativa, que ganhou as ruas no ano passado e que tem no ChatGPT sua maior estrela, atingiu um feito memorável: dominou a linguagem, não apenas para nos entender, mas também para produzir textos, fotos, vídeos, músicas muito convincentes.

Tudo que fazemos passa pela linguagem! Não só para nos comunicar, mas nossa cultura e até nosso desenvolvimento como espécie depende dela. Se agora máquinas com capacidades super-humanas também dominam esse recurso, podemos ser obrigados a enfrentar pessoas inescrupulosas que as usem para atingir seus objetivos, a exemplo do que foi feito com as redes sociais e com as fake news.


Veja esse artigo em vídeo:


A inteligência artificial não sai das manchetes há seis meses. Mesmo com tanta informação, as pessoas ainda não sabem exatamente como funciona e o que pode ser feito com ela. E isso é um risco, pois se tornam presas daquele que entendem.

É aí que mora o perigo para as eleições (e muito mais), com o uso dessa tecnologia para iludir e convencer. “No Brasil, as próximas eleições presidenciais serão daqui a três anos, e a tecnologia estará ainda mais avançada”, afirma Diogo Cortiz, professor da PUC-SP e especialista em IA. “A gente vai partir para um discurso não só textual, mas também com vídeo, som, fotografias ultrarrealistas, que farão ser muito difícil separar o real do que é sintético”, explica.

Não nos iludamos: vai acontecer! Esse é o capítulo atual do jogo em que estamos há uma década, em que a tecnologia digital é usada como ferramenta de convencimento. E, como sempre, ela não é ruim intrinsicamente, mas, se não houver nenhuma forma de controle, pessoas, empresas, partidos políticos podem abusar desses recursos para atingir seus fins, até de maneira criminosa.

Entretanto, não somos vítimas indefesas. Da mesma que esses indivíduos não deveriam fazer esses usos indecentes da tecnologia para nos manipular, cabe a cada um de nós usá-la conscientemente. Por mais que pareça mágica ao responder a nossos anseios de maneira tão convincente, ela erra, e muito! Por isso, não podemos pautar decisões importantes no que a IA nos entrega sem verificar essas informações.

O ser humano sempre teve medo de ficar preso em um mundo de ilusões. O filósofo e matemático grego Platão (428 a.C. – 348 a.C.) antecipou isso em seu “Mito da Caverna”. Nos dias atuais, o assunto permeia a ficção, como na série de filmes “Matrix”, curiosamente um mundo falso criado por máquinas para iludir a humanidade.

 

Intimidade com a máquina

Há um outro aspecto que precisamos considerar. Assim como a IA primitiva das redes sociais identifica nossos gostos, desejos e medos para nos apresentar pessoas e conteúdos que nos mantenham em nossa zona de conforto, as plataformas atuais também podem coletar e usar essa informação para se tornarem ainda mais realistas.

Hoje vivemos no chamado “capitalismo de vigilância”, em que nossa atenção e nosso tempo são capturados pelas redes sociais, que os comercializa como forma eficientíssima de vender desde quinquilharias a políticos.

Com a inteligência artificial, a atenção pode ser substituída nessa função pela intimidade. “Eu vejo vários níveis de consequência disso: sociais, cognitivos e psicológicos”, afirma Cortiz, que tem nesse assunto um dos pontos centrais de suas pesquisas atuais. “Se a pessoa começar a projetar um valor muito grande para essa relação com a máquina e desvalorizar a relação com o humano, a gente tem um problema, porque essa intimidade é de uma via só: o laço não existe.”

“O cérebro funciona quimicamente, buscando o menor consumo com o maior benefício”, explica Victoria Martínez, gerente de negócios e data science da empresa de tecnologia Red Hat para a América Latina. Para ela, uma das coisas que nos define como humanos é nossa capacidade de pensar coisas distintas, e não podemos perder isso pela comodidade da IA. E alerta do perigo implícito de crianças e adolescentes usarem essa tecnologia na escola, entregando trabalhos sem saber como foram feitos. “É muito importante aprender o processo, pois, para automatizarmos algo, precisamos entender o que estamos fazendo”, acrescenta.

A qualidade do que a inteligência artificial nos entrega cresce de maneira exponencial. É difícil assimilarmos isso. Assim pode chegar um momento em que não saberemos se o que nos é apresentado é verdade ou mentira, e, no segundo caso, se isso aconteceu por uma falha dos algoritmos ou porque eles foram usados maliciosamente.

Isso explica, pelo menos em parte, tantos temores em torno do tema. Chegamos a ver em março mais de mil de pesquisadores, especialistas e até executivos de empresas do setor pedindo que essas pesquisas sejam desaceleradas.

É por isso que precisamos ampliar o debate em torno da regulação dessa tecnologia. Não como um cabresto que impedirá seu avanço, mas como mecanismos para, pelo menos, tentar garantir responsabilidade e transparência de quem desenvolve essas plataformas e direitos e segurança para quem as usa.

Isso deve ser feito logo, e não apenas depois que o caos se instale, como aconteceu com as redes sociais. Agora, no meio do turbilhão, vemos como está sendo difícil regulamentá-las, graças aos interesses dos que se beneficiam dessa situação.

“Por enquanto, nós temos o controle”, afirma Martínez. “Então espero que a democracia não seja dominada por uma máquina.”

É verdade, mas temos que nos mexer. E que isso seja feito pelas nossas aspirações, e não porque algo deu muito errado!

 

Mark Zuckerberg, CEO da Meta: redes sociais entraram na briga contra o “PL das Fake News” - Foto: Anthony Quintano / Creative Commons

O poder das redes antissociais

By | Tecnologia | No Comments

No começo, as redes sociais eram espaços divertidos, para encontrarmos antigos amigos e conhecer gente nova. Eram os bons tempos do Orkut, do MySpace e do Friendster. O próprio Facebook surgiu em 2004 como um simples diretório de alunos da Universidade de Harvard. Mas isso mudou na última década, e essas redes têm ficado cada vez menos sociais.

No lugar dos conteúdos inocentes de amigos e de familiares, as páginas dessas plataformas foram tomadas de publicidade, publicações de influenciadores e conteúdo de interesse das próprias empresas. Os feeds, que prendem nossa atenção, se transformaram em ferramentas de convencimento fabulosas, que nos induzem desde comprar todo tipo de quinquilharia até em quem votar. O espaço social deu lugar à máquina publicitária mais eficiente já criada.

A redução no aspecto social teve um custo para usuários e para as próprias redes.

Há semanas, o Brasil vem debatendo o Projeto de Lei 2.630/20, apelidado de “PL das Fake News”, que busca regulamentar essas plataformas. E agora elas entraram de sola na briga, combatendo explicitamente a proposta em suas páginas.

Não é de se espantar: são elas as mais impactadas pelo projeto, e não os usuários, os negócios, as igrejas ou mesmo os políticos. As redes, cada vez mais poderosas e menos sociais, não podem mais se eximir de suas responsabilidades, e precisarão fazer muito mais que atualmente para a manutenção saudável da sociedade.


Veja esse artigo em vídeo:


Nada disso chega a ser novo, mas a magnitude do espaço que ocupa em nossas vidas tornou-se alarmante. Como disse o professor da Universidade de Yale Edward Tufte, no documentário “O Dilema das Redes” (Netflix, 2020), “existem apenas duas indústrias que chamam seus clientes de usuários: a de drogas e a de software”.

Algumas pessoas questionam o aumento desse poder em detrimento dos aspectos sociais. Isso vem provocando sangrias de usuários desencantados. Por isso, essas empresas também são prejudicadas, pois os usuários acabam migrando para plataformas menores e nichadas, onde o aspecto social ainda é relevante. Com isso, o sonho megalomaníaco de moguls como Mark Zuckerberg e Elon Musk de ter uma plataforma onde todos fariam de tudo, fica cada vez mais distante.

“Não é do interesse das redes sociais mudarem o formato de como operam e muito menos abrirem as caixas pretas com algoritmos”, explica Magaly Prado, pesquisadora do Instituto de Estudos Avançados da Universidade de São Paulo. “É notório verificar o espalhamento desenfreado de assuntos polêmicos e, principalmente, quando sacodem emoções.”

Isso explica atitudes como as vistas nos últimos dias, como quando o Google colocou um link para defender sua posição contrária à regulamentação na sua página de entrada, ou quando o Telegram enviou uma mensagem para todos seus usuários no Brasil, com o mesmo fim. Para fazer valer seu ponto de vista, não economizaram em afirmações falsas ou distorcidas. No caso do último, ainda carregou em frases de efeito e falsas, como dizer que “a democracia está sob ataque no Brasil”, que “a lei matará a Internet moderna” ou que “concede poderes de censura ao governo”.

Essas iniciativas provocaram reações no mundo político, jurídico e empresarial. A própria Meta, dona do Facebook, Instagram e WhatsApp, correu para dizer que não concordava com as afirmações do Telegram.

 

Abuso de poder?

Muitos argumentaram que essas atitudes das plataformas digitais poderiam ser consideradas “abuso de poder econômico”, pela enorme penetração que essas empresas têm na sociedade e pelo poder de convencimento de seus algoritmos. Apesar disso, juridicamente não se pode sustentar isso.

“O abuso de poder econômico pode ser resumido como a situação em que uma entidade dominante em um setor empresarial viola as regras da concorrência livre, impedindo que seus concorrentes, sejam eles diretos ou indiretos, conduzam seus negócios”, explica Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, as iniciativas do Google e do Telegram não se enquadram nisso. “Diferente seria se houvesse uma manipulação algorítmica que privilegiasse conteúdo alinhado com seu posicionamento, em detrimento de posições contrárias”, contrapõe.

De toda forma, esses episódios podem ser educativos. Eles ilustram muito bem o poder que as plataformas digitais desenvolveram, a ponto de se contrapor a governos eleitos e de jogar parte da população contra eles.

Ninguém ganha nada com isso!

“As redes perdem ao entulhar o feed dos internautas com mensagens falsas de interesses escusos, fugindo da ideia da Internet em unir as pessoas em uma esfera de sociabilidade e troca de saberes”, afirma Prado. De certa forma, leis como o “PL das Fake News” ao redor do mundo, como da União Europeia, China e Austrália, são reações aos descuidos com os aspectos sociais pelas plataformas, com a explosão das fake news, do discurso de ódio e de outros crimes nesses ambientes. Se essas empresas tivessem levado mais a sério esses cuidados, assim como os aspectos nocivos de seus algoritmos na saúde mental dos usuários, a sociedade não chegaria a essa cisão e talvez nada disso fosse necessário.

Talvez todos possamos aprender algo com a forma como as redes sociais cresceram. A liberdade nos permite criar coisas incríveis, mas ela não nos permite tudo! A liberdade de um termina quando começa a do outro, e o meio digital não se sobrepõe às leis de um país.

Não é um exagero dizer que as redes sociais são um invento que modificou nossas vidas profundamente, abrindo grandes oportunidades de comunicação e exposição. Mas se perderam pelo caminho. Ficaram demasiadamente poderosas, e isso subiu à cabeça de alguns de seus criadores.

Tristemente as grandes plataformas estão se tornando redes antissociais, onde o dinheiro supera os interesses daqueles que viabilizam o negócio: seus usuários. Por mais que não paguem por seus serviços (quem faz isso são os anunciantes), esse e qualquer negócio só prosperam se forem verdadeiramente benéficos a todos os envolvidos. Se a balança se desequilibra, como se vê agora, os clientes sempre encontrarão quem se preocupe de verdade com eles.

 

Imagem artística de Tiradentes, criada por Oscar Pereira da Silva - Foto: Acervo do Museu Paulista da USP / Creative Commons

Se fosse hoje, Tiradentes teria ficado famoso no TikTok

By | Tecnologia | No Comments

Quanto tempo é necessário para se criar um herói?

Na sexta, comemoramos o Dia de Tiradentes. Aproveitamos o feriado em nome do maior herói da história do país, mas são pouquíssimos os brasileiros que sabem qualquer coisa sobre ele, além de uma história rasa e totalmente fantasiosa que aprendem na escola.

A sua imagem amplamente difundida foi criada por positivistas no momento da fundação da República. Em um país carente de heróis, precisavam de uma figura para personificar os ideais republicanos. Isso foi conseguido com um discurso único e ufanista sobre um homem esquecido durante todo o Império. A imprensa e o sistema educacional foram os veículos desse processo, que levou décadas para se consolidar.

Hoje, talvez isso acontecesse em poucos meses, algumas semanas até. Os ideólogos modernos fazem isso com o apoio das redes sociais, capazes de criar mitos e de destruir reputações consolidadas com incrível eficiência. A ideia simples dá lugar à disseminação ampla e orquestrada de uma enxurrada de informações que permitem a construção de ideias que se enraízam na mente de grande parte da população.

O Brasil está em pleno debate sobre a responsabilidade das redes sociais no processo de desinformação, que vem carcomendo a sociedade. Nessa semana, deve ser votado na Câmara dos Deputados o chamado “Projeto de Lei das Fake News”, que visa disciplinar o tema. Mas um grupo de mais de cem deputados, com o apoio das big techs, tenta impedir essa votação.


Veja esse artigo em vídeo:


É de se perguntar por que a resistência a esse projeto de lei, e como tanta gente compra essa ideia. De certa forma, a resposta é justamente o motivo que faz a legislação tão necessária: a capacidade de alguns grupos de disseminar facilmente informações falsas ou distorcidas para atingirem seus objetivos. Esse mecanismo sempre existiu, mas ganhou uma força descomunal com as redes sociais.

Isso nos remete de novo a Tiradentes. A imagem que nos vem à mente é a de um homem de barbas e cabelos longos, junto ao cadafalso. Mas Joaquim José da Silva Xavier, nome do herói, era um alferes e, como militar, o máximo que se permitia era um discreto bigode. Na prisão em que passou seus últimos três anos, era obrigado a raspar o cabelo e a barba, para se evitar piolhos.

Todas as representações conhecidas de Tiradentes são criações livres de artistas que nunca o viram. A mais famosa delas, com longa barba e cabeleira, surgiu sob medida para remeter à imagem de Jesus Cristo, reforçando o aspecto messiânico do personagem que se desejava criar. Ironicamente a própria imagem dominante de Cristo, com um aspecto e vestes europeias da Idade Média, não deve representar em nada um homem que nasceu e viveu no Oriente Médio há 2.000 anos, sendo ela própria fruto de manipulação.

A apresentação de Tiradentes como líder da Inconfidência Mineira tampouco faz jus aos fatos. Ele foi o único enforcado do grupo não por ser uma liderança, mas por ser o “menos rico” de todos e o único que confessou a participação, servindo de exemplo à população. Seus companheiros endinheirados foram condenados ao exílio. De qualquer forma, seu martírio caiu como uma luva para a construção de sua imagem heroica.

Nos dias atuais, ninguém precisa morrer para se tornar um símbolo nacional. Basta saber como usar as redes sociais para captar as insatisfações da população e construir narrativas eficientes que o apresentem como a solução para essas mazelas.

 

“Libertas quæ sera tamen”

Podemos argumentar que o texto “Libertas quæ sera tamen”, tradicionalmente traduzido como “Liberdade ainda que tardia”, nunca esteve tão atual, graças ao debate em torno da responsabilidade das redes sociais pela fake news. A frase em latim foi proposta pelos inconfidentes para a bandeira da república que idealizaram no Brasil do final do século XVIII. Hoje ela faz parte da bandeira do Estado de Minas Gerais.

Aqueles que se opõem à regulamentação das redes sociais argumentem justamente que ela cercearia a liberdade de expressão, abrindo caminho para todo tipo de censura. Como muitos processos eficientes de desinformação, a ideia se constrói sobre argumentos verdadeiros e até desejáveis (no caso, a liberdade), mas colocados de maneira maliciosamente distorcida, para convencer grande parte da população a apoiar os interesses de um grupo.

De fato, o grande problema do projeto de lei é não definir, de maneira inequívoca, o que são fake news, o que pode abrir brechas para quem se beneficia delas. Por outro lado, reconheço a dificuldade de criar uma regra definitiva para tal, recaindo sobre a Justiça arbitrar casos duvidosos.

Outro ponto questionável do projeto é garantir a imunidade parlamentar no meio digital. Não é segredo algum que, entre os maiores produtores, disseminadores e beneficiários da desinformação, estão muitos políticos. Isso pode blindar essa categoria para que continuem abusando desse expediente.

Apesar disso tudo, o projeto avança em um ponto essencial, que é a responsabilização das redes sociais pelo que se publica em suas páginas. Se isso já era grave, ficou explícito com a explosão de ataques a escolas, incentivados por publicações no meio digital.

As plataformas devem bloquear conteúdos indubitavelmente criminosos. Para caso de falsos positivos, devem oferecer mecanismos de contestação. Em conteúdos dúbios, a Justiça continuará sendo acionada para decisões. O que se exige dessas empresas é celeridade e transparência no processo, algo que elas não oferecem hoje.

Não se trata, portanto, de ameaça à liberdade ou criação de um mecanismo de censura. Todos podem continuar dizendo o que quiserem nas redes sociais, sendo penalizados apenas quando infringirem alguma lei, como, por exemplo, em casos de calúnia ou difamação. E esses crimes já eram definidos muito antes desse debate.

As empresas das redes sociais não podem continuar isentas de um problema que nasceu e continua existindo graças a recursos que elas criaram, por mais que não fosse esse seu objetivo. Não se deseja cercear liberdades ou banir plataformas, e sim trazê-las para o centro dos esforços de solução dessa crise.

Nosso papel, como cidadãos, é parar de acreditar na barba falsa de Tiradentes e buscar fatos confiáveis para nossa tomada de decisões. Ninguém está isento dessa responsabilidade, nem das consequências de usos abusivos das plataformas digitais.

 

Sam Altman, CEO da OpenAI, disse estar “um pouco assustado” com a inteligência artificial – Foto: Steve Jennings / Creative Commons

Como lidar com os algoritmos que se sobrepõem à verdade

By | Tecnologia | No Comments

Três acontecimentos da semana passada, que provavelmente passaram despercebidos da maioria da população, envolvem tecnologias de enorme impacto em nossas vidas. O primeiro foi uma audiência no STF (Supremo Tribunal Federal) que debateu, na terça, o Marco Civil da Internet. Na quarta, mais de mil pesquisadores, executivos e especialistas publicaram um manifesto solicitando que pesquisas de inteligência artificial diminuam o ritmo, por representarem “grandes riscos para a humanidade”. Por fim, na sexta, a Itália determinou que o ChatGPT, plataforma de produção de textos por inteligência artificial da OpenAI, fosse bloqueado no país.

Em comum, os três tratam de tecnologias existentes há anos, mas com as quais paradoxalmente ainda temos dificuldade de lidar: as redes sociais e a inteligência artificial. E ambas vêm se desenvolvendo exponencialmente em seu poder para distorcer a realidade a nossa volta, muitas vezes contra nossos interesses e a favor dos das empresas que criam essas plataformas.

Não é um exagero! As redes sociais, usadas por quase 5 bilhões de pessoas, definem como nos relacionamos, nos divertimos, conversamos e nos informamos, manipulando-nos para consumirmos o que os algoritmos consideram melhor (mesmo não sendo). A “inteligência artificial generativa”, que ganhou os holofotes no ano passado e tem no ChatGPT sua estrela, produz conteúdos incríveis, mas que podem embutir grandes imprecisões que as pessoas aceitam alegremente como fatos.

As preocupações que se impõem são como podemos aproveitar o lado bom desses serviços, enquanto nos protegemos de potenciais efeitos nocivos, além de como responsabilizar seus produtores, algo que não acontece hoje!


Veja esse artigo em vídeo:


As redes sociais já são nossas velhas conhecidas. Segundo o relatório “Digital 2023 Global Overview Report”, da consultoria americana We Are Social, os brasileiros passam uma média de 9 horas e 32 minutos na Internet por dia, das quais 3 horas e 46 minutos são em redes sociais. Nos dois casos, somos os vice-campeões mundiais.

Não é surpresa para ninguém que sejamos manipulados por elas, em maior ou menor escala. Segundo a mesma pesquisa, 65,2% dos brasileiros se dizem preocupados se o que veem na Internet é real ou falso. Nesse quesito, somos o quinto país no mundo.

Agora a inteligência artificial ganha um destaque sem precedentes nas discussões tecnológicas, pelo poder criativo das plataformas que elaboram conteúdo. Algumas pessoas acham isso a aurora de uma nova colaboração entre nós e as máquinas; outros veem como um risco considerável para a própria humanidade.

Mas ela já faz parte do nosso cotidiano profundamente. Basta ver que os principais recursos de nossos smartphones dependem da inteligência artificial. As próprias redes sociais fazem uso intensivo dela para nos convencer. E se considerarmos que isso provocou uma polarização social inédita, colocando em risco a própria sociedade, os temores dos pessimistas fazem algum sentido.

Essa amálgama de euforia e paranoia provoca decisões às vezes precipitadas, mesmo de pessoas qualificadas. Países do mundo todo, inclusive o Brasil, se debruçam sobre o tema, tentando encontrar mecanismos legais para organizá-lo.

 

Regular ou não regular?

No Brasil, o uso das redes é disciplinado pelo Marco Civil da Internet, de 2014. “Ele entrou em vigor quando discurso de ódio e fake news estavam em outro patamar”, afirma Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). “Acredito que a revisão seja necessária, mas não com a simples declaração de inconstitucionalidade do artigo 19, e sim a partir de sistemas mais efetivos e transparentes de como as big techs fazem a gestão dos próprios termos de uso quando violados.”

“Hoje temos interações mais rápidas e intensas, que mudam a forma como vivemos em sociedade”, explica Carolina Giovanini, advogada especialista em direito digital do Prado Vidigal Advogados. “Porém isso não significa que o Marco Civil da Internet esteja ‘ultrapassado’, pelo contrário: é uma legislação que foi pensada levando em consideração o futuro da rede.”

O referido artigo 19 está no centro dessa discussão porque protege as plataformas digitais de serem responsabilizadas pelo conteúdo que os usuários publicam em suas páginas. Segundo o texto, elas só poderiam ser penalizadas se deixassem de retirar algo do ar após uma ordem judicial.

Como a Justiça não consegue analisar tudo que se publica nas redes, especialistas defendem que as plataformas sejam obrigadas a fazer isso por sua conta. A inteligência artificial seria fundamental para decidir o que seria apagado, mas a subjetividade de muitos conteúdos dificulta a definição inequívoca do que é desinformação, o que poderia levar a censura por falsos positivos.

“A própria ideia das redes sociais é ser um portal descentralizado, sem ‘pauta editorial’ ou viés socioeconômico, para que a sociedade pulverizada ganhe voz”, sugere Matheus Puppe, sócio da área de TMT, privacidade e proteção de dados do Maneira Advogados. “Responsabilizando as plataformas, todo o modelo de negócios e o propósito da informação descentralizada vai por água abaixo.”

Na prática, isso vem permitindo que as empresas que produzem essas tecnologias gozem de uma prerrogativa rara, que é responder pouco ou nada por danos que provoquem. Não se pode imaginar um mundo sem elas, mas o crescimento explosivo da desinformação e a consequente polarização social não podem ser vistos como meros “efeitos colaterais”. É como “perdoar” um remédio que mate 5.000 pessoas para curar outras 10.000: a cura é bem-vinda, mas não se pode tolerar tantas mortes.

“O ponto é que um novo regime de responsabilidade não é desejado pelas big techs”, afirma Crespo. “Elas têm até bons argumentos para manter como está, na medida em que elas mesmas removem alguns conteúdos ilícitos por vontade própria.”

Estamos em um impasse! Como canta Ney Matogrosso, “se correr o bicho pega; se ficar, o bicho come!” As redes sociais estão no centro da nossa vida. A inteligência artificial abre possibilidade incríveis e necessárias. Eliminá-las é impossível, desacelerá-las é improvável. Mas esses problemas aparecem cada vez com mais força.

Qualquer que seja o futuro, ele precisa ser criado com a participação ativa de todos os agentes da sociedade. Essas empresas não podem continuar dando as cartas baseadas apenas na sua busca pelo lucro, pois seus produtos estão muito além de qualquer outra coisa já feita, do ponto de vista de transformação social.

Os benefícios devem ser distribuídos para todos, assim como as responsabilidades e os riscos. O futuro não pode ser distópico!

 

A pílula vermelha do filme “Matrix”, usada por grupos que abraçam realidades distorcidas pela Internet – Foto: divulgação

A Internet tem “memória de elefante”, mas alguns apagam seus crimes na realidade alternativa da rede

By | Jornalismo | No Comments

Um estudo da empresa de cibersegurança NordVPN indicou que cerca de 20% dos brasileiros gostariam de ter todos os seus dados apagados da Internet. Infelizmente isso é impossível, pois a informação que cai na rede acaba sendo replicada em muitos locais, além de continuarmos deixando nossas “pegadas digitais” o tempo todo. Entretanto, como em outras coisas da vida, a regra parece só valer para o “cidadão comum”: para quem tem muito dinheiro, é possível até remover referências online a seus crimes.

O grupo internacional de jornalistas investigativos Forbidden Stories vem divulgando práticas que alguns bandidos ou simplesmente pessoas endinheiradas usam para alterar seu passado na Internet. Não é trivial ou barato e, na maioria dos casos, é ilegal e antiético. Empresas manipulam os algoritmos de buscadores e de redes sociais para os resultados não exibirem os fatos, mas sim o interesse de seus clientes.

Na prática, vivemos em uma realidade alternativa, em que todos os pecados parecem perdoados. Nossa presença online tornou-se uma ferramenta que nos arrasta para longe da verdade e manipula nossas emoções e comportamentos para proteger criminosos, enquanto nos faz de massa de manobra do poder. O grande risco é que essas versões fabricadas ultrapassem os limites do digital e se imponham sobre nossa vida.


Veja esse artigo em vídeo:


Essas práticas são primas-irmãs dos mecanismos de desinformação e fake news, que também distorcem a realidade para convencer uma legião de pessoas sobre um assunto do interesse de quem as publica.

Segundo o material da Forbidden Stories, uma das estratégias usadas por essas empresas de “lavagem de reputação” é a velha intimidação. Enviam e-mails a jornalistas, como se fossem autoridades, ameaçando-os de sanções graves caso não apaguem informações contra seus clientes. Outra, mais moderna, consiste em denunciar, com recursos das redes, publicações que exponham negativamente seus clientes, como se violassem direitos autorais. A expectativa é que os algoritmos das plataformas digitais apaguem suas referências a esses materiais.

Outra tática, ainda mais ousada, é criar muitas páginas elogiosas (e falsas) sobre seus clientes em sites pseudojornalísticos. Usando técnicas para aumentar a audiência desse conteúdo, os buscadores acabam empurrando as notícias verdadeiras para sua terceira página de repostas (ou mais), aonde raramente os usuários chegam.

Essa consciente alteração dos fatos no meio digital não serve apenas para apagar rastros de crimes na Internet. Seu poder de convencimento também se manifesta no surgimento de grupos sociais que defendem ferozmente ideias distorcidas como se fossem incontestáveis, colhendo algum benefício a partir disso.

Por exemplo, na semana passada, um dos assuntos mais destacados nas redes foi a série de ataques contra mulheres por homens que acreditam na submissão delas como caminho para que resgatem sua masculinidade. Esses grupos vêm crescendo nos últimos anos, graças a uma combinação de narrativas nos meios digitais.

Essas e outras organizações que distorcem a realidade de diferentes maneiras acreditam que foram “libertados” de um suposto controle da ciência, da mídia e de educadores. Afirmam ter escolhido a “pílula vermelha” (uma referência ao filme Matrix, de 1999), que os permitiria “ver o mundo como realmente é”.

 

A origem de uma ideia

Outro filme que nos ajuda a entender esse mecanismo de convencimento é “A Origem” (2010). Nele, uma equipe entra em sonhos de outras pessoas para “plantar ideias” em suas mentes. Na descrição desse inusitado serviço, uma vez que a ideia ganha força no cérebro da vítima, é quase impossível erradicá-la.

De certa forma, o filósofo e psicólogo suíço Jean Piaget (1896-1980) já defendia isso. Para ele, não há nada mais persistente que uma teoria que criamos por conta própria. O poder de convencimento nas redes sociais usurpa esses conceitos ao oferecer recursos para que as pessoas pensem estar construindo suas próprias teorias. Na verdade, estão sendo conduzidas a encontrar elementos que consigam encaixar de maneira crescente, até que cheguem, no seu ritmo, ao momento da “revelação”.

Essas “peças” não precisam ser verdadeiras. Basta que se encaixem em uma ideia que faça sentido, dando ao indivíduo o prazer de sentir que está “vendo o que sempre lhe negaram”. E normalmente essas liberdades ampliam desejos pré-existentes nessas pessoas, como o medo de vacinas ou a submissão de mulheres.

Em outras palavras, a ideia mais forte não é imposta, mas sim construída aos poucos.

Esse poder pode ser visto em nossa sociedade há muitos anos, quando aqueles que escolheram as “pílulas vermelhas” dos mais diferentes sabores na Internet manifestam seu “aprendizado” na realidade. Graças a elas, por exemplo, muitos deixaram de se vacinar contra a Covid-19 e, por isso, morreram.

O clímax da realidade distorcida se manifestou no dia 8 de janeiro, quando uma horda depredou as sedes dos três Poderes da República, achando que estavam defendendo a democracia. E uma parcela significativa da população continua pensando assim, a despeito do absurdo daqueles acontecimentos. Tudo porque essa é a “sua conclusão”.

As diferentes plataformas digitais não podem se furtar de seu papel nisso tudo. Ainda que involuntariamente, elas se tornaram as distribuidoras das “pílulas vermelhas” e se prestam à “lavagem de reputações”. Como esses grupos vêm agindo mais ou menos impunemente há anos, ficaram suas raízes no mundo real a partir do digital. Essas empresas são, portanto, corresponsáveis por isso, e precisam se esforçar muito mais para combater a “realidade alternativa” em suas propriedades.

De toda forma, por mais que façam isso, elas não conseguirão dar conta do problema sozinhas. A mídia e os educadores precisam produzir conteúdos que restabeleçam a verdade e reconstruam os valores de boa convivência.

Entretanto isso não pode continuar sendo feito do jeito de sempre: apontando o que é o certo e o que é errado. Precisam se apropriar das ferramentas dos grupos de desinformação, não para atuar de forma antiética ou criminosa, mas para ajudar as pessoas a aprenderem aos poucos o que é o certo, chegando a suas conclusões.

Isso não é trivial, mas, se não se apropriarem desse recurso, dificilmente terão sucesso nessa empreitada que pode consumir uma geração para desfazer tanto mal.

Até lá, precisamos redescobrir os caminhos para uma convivência pacífica e construtiva, mesmo com aqueles que tenham ideias e valores diferentes do nossos. A despeito de alguns tropeços pela caminho, foi assim que a humanidade chegou até aqui.

 

A Finlândia firmou-se como referência em educação midiática, após mudanças nas escolas em 2016 – Foto: Felicity Weary/Creative Commons

Precisamos de uma boa educação midiática para nossa sociedade não desaguar na barbárie

By | Educação | No Comments

Sempre que viajo, costumo analisar a mídia de onde vou. É cristalino que, quanto mais livre e profissional é a imprensa do lugar, mais bem informada é a população e consequentemente mais vibrante é a sociedade. Por essas e outras, governos autoritários combatem a imprensa, algo que vem sendo praticado no Brasil de maneira sistemática e crescente nos últimos anos.

Não se trata apenas de ataques a veículos de comunicação e a jornalistas, inaceitáveis em uma democracia. Como exemplo, na terça passada, a repórter Renata Cafardo e o fotógrafo Tiago Queiroz, do Estadão, foram agredidos física e verbalmente por moradores de um condomínio de luxo em São Sebastião, enquanto cobriam as tragédias causadas pelas chuvas. De onde vem tanto ódio gratuito?

O afastamento das pessoas de boas fontes de informação, substituindo-as por questionáveis redes sociais, coloca a própria democracia em risco à medida que derrete a capacidade do cidadão de discernir entre a verdade e a mentira, entre o bem e o mal. O resultado desse processo em nosso país é a grotesca polarização que nos rachou ao meio, culminando nos abomináveis ataques à democracia de 8 de janeiro.

A reversão do caos em que vivemos passa pela educação midiática, um conjunto de práticas que ensina crianças e adolescentes a desenvolver uma visão crítica sobre o que a mídia –em todos seus formatos– lhes apresenta, para que sejam capazes de consumir, compreender e até produzir informação de qualidade.


Veja esse artigo em vídeo:


“É mais que preparar para o uso da mídia: é preparar para compreender esse mundo em que a gente vive”, explica Ana Lúcia de Souza Lopes, professora de Pedagogia da Universidade Presbiteriana Mackenzie. “E todo esse universo midiático faz parte dele.”

Um ótimo exemplo dos ganhos da educação midiática para uma sociedade vem da Finlândia. Quando a vizinha Rússia tomou da Ucrânia a região da Crimeia em 2014, os finlandeses começaram a ser bombardeados com altas cargas de desinformação, para influenciar o debate política em favor dos russos.

O governo então reformou seu sistema educacional em 2016, para incluir uma disciplina de alfabetização midiática, que também é abordada de maneira transversal em todas as matérias. Como resultado, a Finlândia tornou-se o país mais resistente à desinformação entre as nações da Europa pelo estudo anual do instituto Open Society, firmando-se como uma referência mundial no combate às fake news.

Se me permitem um abuso de linguagem, uma “boa desinformação” é aquela que parece ser verdadeira e que reforça desejos de quem a lê. É por isso que se espalha rapidamente e ganha ares de fato incontestável. E quanto menos a pessoa tiver uma visão crítica das informações, mais suscetível será a esse controle.

Se já não bastasse esse desafio, especialistas temem que as recém-popularizadas inteligências artificiais generativas, como o ChatGPT, sejam usadas para criar fake news ainda mais críveis. Fiz alguns testes com essa ferramenta e –justiça seja feita– na maioria das vezes, ela respondeu que não poderia entregar o que eu pedia porque era falso. Mas nas ocasiões em que fiz pedidos que já continham várias mentiras, ela pariu obras-primas da desinformação.

Ter uma visão crítica da mídia e do mundo torna-se uma questão de sobrevivência!

 

Mudança de época

Em junho de 2014, em entrevista ao jornal italiano “Il Messaggero”, foi perguntado ao papa Francisco se o aumento da corrupção se deveria à mídia dar mais destaque ao tema. O pontífice explicou que “vivemos não só uma época de mudanças, mas uma mudança de época”. Para ele, isso altera profundamente aspectos culturais.

A digitalização da vida está no centro desse processo. Os mais jovens têm grande acesso a conteúdo, normalmente sem a necessária visão crítica. E assim como podem influenciar positivamente suas famílias com o que aprendem na escola, como respeito ao meio ambiente e diversidade, também podem ser vetores de fake news.

“A criança não só consome a desinformação: ela é uma propagadora”, explica Maria Carolina Cristianini, editora-chefe do “Joca”, um jornal brasileiro dedicado a crianças e adolescentes. Por isso, segundo ela, os pequenos leitores precisam entender a sua responsabilidade sobre o que leem e o que reproduzem em seus círculos sociais.

“Participar de um meio de comunicação é uma das maneiras de dar a dimensão real da importância da imprensa, da conscientização sobre a desinformação, e que informação de qualidade não é uma expressão vaga”, conta Mônica Gouvêa, diretora educacional da Editora Magia de Ler.

Crianças são naturalmente curiosas e participativas, por isso a educação midiática ganha ainda mais importância. “É nessa geração que a gente tem que trazer essa mudança de época, para mudar a sociedade”, explica Lopes. “Senão, cada vez mais, estaremos com uma sociedade alienada”, conclui.

A escola é o melhor lugar para isso, pela visão diversa de mundo que embute. No Brasil, a educação midiática ainda engatinha, com iniciativas pontuais de algumas escolas e redes de ensino. Ainda assim, alguns pais e mães se colocam contra essas práticas, argumentando que a escola estaria doutrinando ideologicamente seus filhos.

Cristianini argumenta que essa reação é inócua, pois é impossível manter a criança em uma “bolha de pensamento único”. É melhor que ela esteja preparada para lidar com pensamentos divergentes, que a impactarão mais cedo ou mais tarde. Além disso, ela explica que as famílias podem usar até conteúdos de que discordem para explicar aos filhos suas visões de mundo. “As notícias podem ajudar nisso, podem ser a base para essa conversa”, acrescenta.

“Alguns pais acham que tem o momento certo para você saber de algumas coisas, mas não existe isso”, explica Gouvêa. Os jovens consomem conteúdo o tempo todo, e sempre é uma oportunidade de se desenvolver seu senso crítico.

Aqueles que lucram com a desinformação atuam maquiavelicamente na contramão disso. Ao invés de dizer o que as pessoas devem fazer, oferecem um mecanismo para que essas pessoas se enredem em uma narrativa profunda que distorce a realidade, acreditando que elas chegaram a essas conclusões, e que não estão sozinhos.

A Finlândia é um exemplo a ser seguido. Governo, escolas, educadores e famílias precisam se unir para a disseminação da educação midiática, para formar gerações saudavelmente críticas e menos suscetíveis à desinformação. Elas construirão uma sociedade melhor e ajudarão as gerações anteriores a fazer o mesmo.

Caso contrário, corremos o risco de ver a democracia se esfacelando, com os ataques de 8 de janeiro parecendo manifestações legítimas.