desinformação

Donald Trump toma posse como presidente dos EUA pela segunda vez - Foto: Congresso americano/Creative Commons

Convicção, ignorância e interesses pisoteiam a verdade e mantêm pessoas nas trevas

By | Jornalismo | No Comments

No dia 16 de março, Any Awuada, pseudônimo de Nayara Macedo, ganhou grande destaque nas redes sociais por um vídeo em que disse que não engravidaria do jogador Neymar, com quem afirmou ter tido relações sexuais no Carnaval, por ter urinado logo após o sexo. Adultos se relacionam como e com quem quiserem. Mas afirmar, em um vídeo visto por milhões, de pessoas que a urina impede uma gravidez é uma irresponsabilidade inominável, pois muita gente acreditará nisso e passará a usar o próprio xixi como método anticoncepcional, o que evidentemente é falso.

Esse é só um exemplo recente da pilha interminável de mentiras que se acumulam nas redes sociais, mas que podem passar a ser encaradas como verdadeiras, pela visibilidade digital de seus autores. Alguns promovem os engodos por convicção, outros fazem por ignorância. Mas há também aqueles que pisoteiam a verdade porque têm interesses por trás daquilo, normalmente econômicos ou políticos.

O maior exemplo de embusteiro compulsivo beneficiado pelo meio digital é o atual presidente dos EUA, Donald Trump, amplamente conhecido por mentir despudoradamente para atingir seus objetivos. Apesar de, como líder da nação mais poderosa do mundo, estampar as manchetes de veículos de comunicação o tempo todo, ele continua usando o meio digital para espalhar suas desinformações mais absurdas, escapando do crivo dos jornalistas.

A enorme penetração das redes sociais, a falta de responsabilização dessas plataformas por ativamente promoverem mentiras, e os maus exemplos de governantes e celebridades continuam esgarçando o tecido social e criando novas gerações de propagadores de desinformação, que veem nisso uma forma de ascensão pela fama e pelo dinheiro. E as consequências sociais são gravíssimas.


Veja esse artigo em vídeo:


As redes sociais há muito se tornaram a principal fonte de consumo de informação boa e ruim no Brasil e no mundo. A pesquisa “Retrospectiva Digital 2024: Definindo o rumo para 2025”, publicado pela consultoria Comscore no dia 25 de março, indica que o Brasil tem 131 milhões de internautas, que gastaram 70 bilhões de horas no ano passado em redes sociais, contra apenas 1,1 bilhão em sites e aplicativos de notícias.

Trump sabe muito bem o poder disso, por isso explora a desinformação. Uma das mais perversas é a que relaciona vacinas a autismo. Essa mentira surgiu em 1998, quando o médico inglês Andrew Wakefield publicou um artigo na revista “The Lancet”, sugerindo essa relação com a vacina tríplice viral. O estudo foi formalmente retratado pela publicação em 2010, pois o autor havia manipulado dados para sustentar suas conclusões. Investigações revelaram que ele tinha conflitos de interesse, incluindo patentes de uma vacina concorrente e vínculos financeiros com advogados de famílias processando fabricantes de vacinas. Wakefield acabou perdendo sua licença médica.

Embora a relação entre vacinas e autismo tenha sido refutada por estudos científicos sérios, o artigo foi devastador. Ele fortaleceu o movimento global contra vacinas, levando à queda na vacinação e ao ressurgimento de doenças evitáveis. Um exemplo emblemático é o do sarampo. A doença havia sido declarada eliminada nos EUA no ano 2000, mas ressurgiu com força graças a esses movimentos, especialmente nos Estados do Texas e do Novo México, onde eles são mais influentes.

Trump capitaliza o medo dos imunizantes para angariar votos de quem acredita nessa teoria desmentida. Tanto que, para reforçar sua retórica, ele nomeou, no seu segundo mandato, Robert Kennedy Jr., um conhecido ativista antivacinação, para liderar o Departamento de Saúde e Serviços Humanos dos EUA.

Pela sua posição, Trump tem o maior megafone do mundo, e isso influencia multidões pelo globo, que abraçam a desinformação. Isso acontece até com profissionais de uma determinada área, que atacam a própria ciência. Por exemplo, em outubro, aqui no Brasil, uma médica afirmou nas redes sociais que o câncer de mama não existe e um médico disse que a doença pode ser causada por mamografias. Ainda mais por serem médicos, essas declarações legitimaram crenças de uma legião de pessoas que, por qualquer motivo “não acreditam na doença”. Ambos respondem por investigações dos Conselhos de Medicina e processos.

 

“Me engana que eu gosto”

Em 2021, o instituto britânico Alan Turing publicou um estudo sobre como uma sociedade ameaça a própria sobrevivência com ataques deliberados à capacidade de adquirir conhecimento. A líder dos pesquisadores, Elizabeth Seger, da Universidade de Cambridge, explicou que, “mesmo que estivesse claro como salvar o mundo, um ecossistema de informações estragado e não-confiável poderia impedir que isso acontecesse”. Isso surge da desinformação (intencional ou não), do excesso de informação, da rejeição ao que contraria crenças do grupo e da dificuldade de julgar fontes nas redes. No fim, as pessoas confiam no que reforça sua visão de mundo.

Outro estudo, publicado em 2017 pelo Conselho da Europa e liderado por Claire Wardle, da Universidade de Harvard, detalha a “desordem informacional”. Ela se divide em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Também explica que é preciso considerar quem são os agentes (quem cria e distribui a mensagem, e qual sua motivação), as mensagens em si e os intérpretes (quem as recebe e suas interpretações).

Isso afeta pessoas de todas as idades, grupos sociais e níveis educacionais. Os promotores da desinformação combatem a educação e a imprensa, que são contrárias aos seus interesses. Infelizmente são bem-sucedidos: o Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford, mostrou que 47% dos brasileiros deliberadamente se recusam a consumir notícias, e que apenas 43% confiam no noticiário, o pior índice já registrado no país.

Em seu livro “A Manipulação da Verdade” (Contexto, 2022), o destacado linguista francês Patrick Charaudeau afirma que “uma indiferença pela verdade, que se tornou ‘não essencial’, seria a marca registrada de nossa era pós-moderna”. E conclui que “o desafio não está mais em acreditar ou não acreditar, está no sucesso do fazer crer.”

Em um cenário em que as plataformas digitais fazem vista grossa e até, em alguns casos, incentivam a desinformação para aumentar seus lucros, em que legisladores se furtam a criar leis para combater esse mal, em que governantes a praticam diariamente, e em que influenciadores normalizam a prática irresponsavelmente, cabe a cada um de nós encontrar maneiras de nos informarmos melhor e de reforçarmos nosso senso crítico. Caso contrário, veremos mais e mais crianças nascendo porque seus pais acharam que a gravidez teria sido evitada com uma ida ao banheiro.

 

Donald Trump toma posse como presidente dos EUA pela segunda vez - Foto: Congresso americano/Creative Commons

O resgate da civilidade digital depende de cada um de nós

By | Jornalismo, Tecnologia | No Comments

Com a posse para seu segundo mandato como presidente dos EUA, Donald Trump, um notório valentão que faz de agressões, desqualificações e fake news ferramentas do cotidiano, iniciou uma nova fase de deterioração da convivência online. Com a adesão explícita das big techs a essa agenda, o processo deve se ampliar exponencialmente. Isso seria grave o suficiente por si só. Mas em um mundo dominado por redes sociais, o maior risco vem do exército voluntário que amplia seus métodos para além dos limites do digital, esgarçando a própria trama da sociedade.

Há aqueles que se alinham a esse movimento e participam ativamente dele. Existem os que acham tudo “normal”, e acabam espalhando o conteúdo nocivo alegremente, com um entendimento distorcido da liberdade de expressão. E tem os que parecem não se importar com nada e acabam fazendo isso de forma inconsciente.

Não há nada de “normal” ou inocente nisso! Promover o ódio, cercear pensamentos diferentes, atacar grupos sociais, roubar identidades, expor pessoas estão entre os piores comportamentos de nosso tempo. Além da brutal violência psíquica e até física contra as vítimas, isso pode acabar com o debate público: em um meio inseguro e agressivo, as pessoas ficam desencorajadas a expor suas ideias construtivamente. E assim a democracia se enfraquece e os valentões ganham poder.

Pelo seu grande público e influência, jornalistas e criadores de conteúdo digital têm obrigação de combater essas práticas. Mas não são suficientes para eliminar esse mal. A sociedade só reencontrará um caminho sustentável de desenvolvimento quando cada um se empenhar em promover um ambiente digital civilizado.


Veja esse artigo em vídeo:


Não é uma tarefa simples ou pequena. Infelizmente muitos que propõem uma convivência harmônica e construtiva no meio online acabam sendo agredidos por aqueles que se beneficiam do ódio e da polarização, em uma tentativa explícita de silenciá-los. Por isso mesmo, não se devem deixar intimidar.

Mas há boas maneiras para se lidar com esses “trolls da política digital”. Fazer as escolhas certas diferencia entre uma explosão de ódio e uma contenção da violência pela racionalidade e pela empatia.

Como mencionado anteriormente, nada disso é protegido pela liberdade de expressão. O artigo 5º da Constituição Federal, que trata dos direitos e garantias fundamentais, determina, em seu inciso IV, que “é livre a manifestação do pensamento, sendo vedado o anonimato.” Isso assegura que se possa dizer o que quiser, mas, ao mesmo tempo, determina que os responsáveis por violações de direitos como honra, imagem ou privacidade, ou que cometam outros crimes sejam identificados e punidos.

Muitos argumentam que querem ter a liberdade de falar nas redes as maiores barbaridades, e que depois a Justiça que cuide das punições. Isso seria aceitável se o Judiciário tivesse capacidade infinita de julgar e punir todas as violações, o que está muito longe de acontecer. Assim essa proposta, travestida de liberdade, não passa de um subterfúgio para se cometer esses crimes impunemente.

Os ataques online se unem a outras formas de violência, como as direcionadas a grupos específicos, como mulheres, negros, pessoas com deficiência e LGBTQIA+, que vivem em determinada região ou professem uma fé específica. É comum que essas características sejam usadas para inflamar o ódio e ampliar a desinformação, para que o valentão atinja objetivos que não têm nada a ver com a situação da vítima.

 

Não alimentem os “trolls”

O ataque dos “trolls digitais” não pode ser classificado como mera contraposição de ideias divergentes (como costumam se defender), porque eles não aceitam o debate. Visam apenas desestabilizar sua vítima e prejudicar a troca saudável de argumentos.

Isso foi perfeitamente descrito em 1945 pelo austríaco Karl Popper (1902-1994) com seu “paradoxo da tolerância”, no best-seller “A Sociedade Aberta e Seus Inimigos”. Segundo ele “a tolerância ilimitada leva ao desaparecimento da tolerância”. O filósofo explicava que “se não estivermos preparados para defender a sociedade do assalto da intolerância, então os tolerantes serão destruídos e a tolerância com eles”.

Para ele, as filosofias intolerantes devem ser combatidas com argumentos racionais e mantidas em xeque frente à opinião pública. Mas alertava que os intolerantes não lidam com a razão, “a começar por criticarem todos os argumentos e proibindo seus seguidores de ouvir argumentos racionais, porque são enganadores e os ensinam a responder aos argumentos com punhos ou pistolas”. E sugeria que “devemos exigir que qualquer movimento que pregue a intolerância fique fora da lei e que qualquer incitação à intolerância e perseguição seja considerada criminosa”.

Popper queria evitar algo que se observa muito hoje. Formadores de opinião e pessoas comuns se afastam do debate público com medo dos “trolls”. Quando isso acontece, as ideias dos valentões evoluem para uma sociedade totalitária, em que os que não se alinharem ao grupo violento perdem gradualmente seus direitos.

Deve-se tomar cuidado ao responder aos “trolls”. Um confronto direto é tudo que eles querem, pois isso valida seus métodos e cria novos valentões. Além disso, o embate tende a normalizar o discurso violento e banalizar suas pautas excludentes.

Às vezes, deixar o “troll” falando sozinho é o melhor a se fazer. O problema é que, nas redes sociais, alguém pode amplificar os ataques desnecessariamente. Nesse caso, o silêncio pode não servir mais. A violência deve então, de maneira constante e resiliente, ser combatida com ética, sensatez e propostas construtivas.

Em 1947, Winston Churchill disse: “Ninguém espera que a democracia seja perfeita ou infalível. Na verdade, tem sido dito que a democracia é a pior forma de governo, excetuando-se todas as demais formas.” O ex-primeiro-ministro do Reino Unido, considerado um dos maiores estadistas da história, sabia que a democracia só funciona bem pela contraposição de ideias. Mas isso só é válido quando pessoas com ideias diferentes não apenas conseguem conviver entre si, como ainda constroem juntas uma sociedade, em nome de um bem maior.

Diante do avanço de governos encabeçados por valentões de qualquer ideologia, que sistematicamente silenciam ideias diferentes das suas, as sociedades precisam reforçar a educação digital e midiática. A primeira permitirá que seus cidadãos saibam usar adequadamente os recursos digitais para uma vida melhor; a segunda, que desenvolvam um senso crítico refinado, informem-se melhor e fiquem menos suscetíveis à desinformação e à brutalidade dos “trolls”.

Mas acima de tudo, precisamos urgentemente resgatar nossa humanidade e nossa capacidade de sermos empáticos, inclusive com quem não conhecemos. É assim que verdadeiramente se derrota um valentão.

 

Mark Zuckerberg, CEO da Meta, durante anúncio de medidas como o fim da moderação de conteúdo em suas redes - Foto: reprodução

Por que a guinada de Zuckerberg sobre conteúdo é uma tragédia social

By | Jornalismo, Tecnologia | No Comments

A grande notícia no mundo digital na semana passada foi o cavalo de pau que Mark Zuckerberg deu na política de moderação de conteúdo da Meta, afetando Facebook, Instagram e Threads. Com um intenso alinhamento às ideias do presidente eleito dos EUA, Donald Trump, as medidas levantam preocupações legítimas sobre como isso impactará a qualidade das entregas das redes sociais e a própria democracia.

Especialistas diversos afirmam que o nível das publicações e dos debates nessas redes deve cair dramaticamente, empobrecendo seu papel social e corroendo a credibilidade da empresa. Pela sua descomunal penetração, isso deve agravar a polarização na sociedade. E a disposição manifestada pelo seu CEO de ativamente afrontar governos que contrariarem seus interesses pode desestabilizar nações.

Esse é o ponto mais grave desse movimento. Executivos das big techs cada vez mais se dão o direito de se colocar acima da lei e de valores, não apenas dos EUA, mas de países muito diferentes. Com uma grotesca distorção do conceito de liberdade de expressão, ameaçam a estabilidade social, uma influência nefasta e indevida nunca vista na história, que impõe seus interesses pessoais sobre populações inteiras.

Essa é uma perigosíssima nova ordem mundial que precisa ser combatida, sob o risco de desaguarmos em uma barbárie onde ninguém mais se respeite, colocando o próprio conceito de sociedade em risco.


Veja esse artigo em vídeo:


As políticas de moderação da Meta surgiram com o escândalo da Cambridge Analytica, que estourou em março de 2018. Os jornais “The Guardian” e “The New York Times” demonstraram que essa empresa coletou dados de 87 milhões de usuários do Facebook sem seu consentimento, para influenciar a primeira eleição de Trump e o referendo do Brexit, ambos em 2016. Isso escancarou a manipulação das redes, e o Facebook foi acusado pelo Congresso americano de não proteger seus usuários desse controle.

Trump, que teve suas contas no Facebook e no Instagram suspensas em 2021 por incitar a violência que levou à invasão do Capitólio no dia 6 de janeiro daquele ano, comemorou o novo posicionamento da Meta. Em entrevista após o anúncio, disse, sem nenhum constrangimento, que provavelmente sua ameaça de prisão perpétua a Zuckerberg no ano passado pode ter pesado nessa decisão.

Mas não sejamos inocentes: o alinhamento dessas empresas a Trump lhes trará muitos benefícios. E com seu virtual controle dos três Poderes no país, as ameaças sobre as big techs que se unirem a ele tendem a desaparecer. “Na verdade, elas nunca quiseram combater desinformação”, explica Pollyana Ferrari, pesquisadora em mídias e professora da PUC-SP. “Eram mais ações isoladas para dizer que faziam algo, porém agora os bilionários não precisam mais disfarçar seus objetivos.”

“Em 2017, Chris Cox, então diretor de produtos do Facebook, descobriu que havia uma correlação entre maximizar o envolvimento do usuário e inflamar as tensões, e que reduzir a polarização significaria prejudicar o engajamento”, relembra Magaly Prado, pesquisadora do Instituto de Estudos Avançados da USP. Então, mesmo sabendo que algumas eram “anticrescimento”, propôs várias soluções, mas elas não foram implantadas. “As big techs que abrigam as redes sociais não estão nem aí com as pessoas que eles costumam chamar de usuários”, acrescenta.

O anúncio de Zuckerberg provocou protestos de especialistas do mundo todo, que pedem que as mudanças sejam revertidas. Em resposta, a Meta tomou mais medidas na mesma linha, como acabar com seu programa de Diversidade e Inclusão.

“O mais preocupante não é apenas o fim do programa de checagem, mas o fato de que Zuckerberg encerrou essa iniciativa com um ataque perigoso e infundado a um trabalho que vinha sendo feito de forma criteriosa”, diz Clara Becker, jornalista especializada em desinformação e diretora da ONG de educação midiática Redes Cordiais. “Em vez de fortalecer o combate à desinformação, a Meta escolheu um caminho que descredibiliza os esforços existentes e agrava ainda mais o cenário de manipulação e polarização nas plataformas”, alerta.

 

O que Zuckerberg quer?

Ao se alinhar aos interesses de Trump, o CEO da Meta espera diminuir seus custos e ganhar um aliado para combater países que ameaçarem seus negócios, além de apoio contra pressões políticas e legais domésticas.

“Atuar contra regulações locais pode ser percebido como uma forma de neocolonialismo digital, prejudicando a autonomia de países e minando a confiança em governança global”, adverte Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). Para ele, “promover políticas alinhadas exclusivamente a interesses americanos pode agravar tensões globais e alimentar narrativas antidemocráticas”.

Zuckerberg quer fazer o que bem entender na sua companhia, o que, a princípio, é seu direito. Mas redes sociais não são empresas como outras, pela sua absurda influência sobre o mundo! Portanto, dizer que defende a liberdade de expressão é, no mínimo, hipócrita, pois ninguém sabe como seus algoritmos promovem e escondem o que quiserem.

“O discurso de garantir a liberdade de expressão é falacioso, na medida em que a remoção de conteúdos inverídicos, falseados, criminosos não configura censura”, explica Crespo. “No Brasil, não há liberdade plena de expressão, por isso a Constituição determina que é vedado o anonimato, justamente para responsabilizar quem cometer abusos.”

Duas situações podem surgir disso. Na primeira, governos, Justiça, empresas e outros membros da sociedade reagem para elaborar regras equilibradas para evitar a desinformação, exigindo uma responsabilidade e uma transparência que as redes sociais nunca tiveram, o que seria muito positivo. Na outra, ruim, a proposta de Zuckerberg avança e seus algoritmos privilegiam lucros ao invés de segurança, explodindo os conteúdos nocivos, como aconteceu no X de Elon Musk, criando sociedades instáveis, em que as pessoas não concordam, nem constroem coisas juntas. Por isso, segundo Prado, “é inevitável e fundamental que possamos debater a justiça dos dados, as leis que vão reger quem provoca o distúrbio informacional”.

“A moderação de conteúdo é um dos grandes desafios do século XXI, e não há sistema infalível para lidar com desinformação e discurso de ódio”, afirma Becker. “O cenário ideal seria aquele que promove um equilíbrio entre liberdade de expressão e responsabilidade, garantindo que conteúdos enganosos, discursos de ódio e incitações à violência ou discriminação sejam eficazmente controlados”, conclui.

A desinformação deve ser combatida com boa informação. Quando Zuckerberg confirma a anarquia das redes sociais, isso reforça a importância do jornalismo e da checagem de fatos profissionais. Mas infelizmente eles não são suficientes, pois os algoritmos continuarão promovendo o conteúdo nocivo, que lhe é mais lucrativo.

Por tudo isso, deve-se exigir mais transparência das plataformas, ao invés de aceitar o contrário, que nos está sendo imposto. A verdade não pode ser opcional, devendo ser cuidada por todos como um bem público, ou corremos o risco de ter consolidado um animalesco Estado sob a lei do mais forte.

 

Influenciadores dominam a linguagem das redes, mas a maioria não checa as informações que publica - Foto: Freepik/Creative Commons

Influenciadores promovem desinformação por amadorismo e descuido

By | Jornalismo | No Comments

Que as redes sociais são o grande vetor da desinformação, não é novidade. Mas em tempos em que o Supremo Tribunal Federal (STF) discute se essas plataformas têm responsabilidade sobre conteúdos nocivos em suas páginas, precisamos entender as motivações que levam alguém a fazer isso. Nesse cenário, os influenciadores digitais desempenham um papel central, pelo seu poder de persuasão de grandes plateias.

Existem aqueles que conscientemente propagam informações falsas, e esses devem ser combatidos. Mas o estudo “Por Trás das Telas”, publicado no dia 26 de novembro pela Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) mostra que muitos fazem isso sem intenção, por amadorismo ou descuido.

Realizada com 500 influenciadores de 45 países, incluindo o Brasil, a pesquisa indica que apenas 36,9% dos influenciadores verificam a correção das informações que publicam. Além disso, 41,7% deles consideram curtidas e visualizações como o principal critério de credibilidade de suas fontes.

Esses dois números deixam claro que eles podem ser facilmente manipulados pelos criadores de desinformação, agravando o problema. A boa notícia é que 73% demonstraram interesse em serem treinados para melhorarem em sua atividade.

Apesar dos ataques daqueles que se beneficiam da desinformação, a imprensa ainda goza de boa credibilidade com a maior parte da população. Mas há anos ela não está mais sozinha no processo informativo, dividindo esse espaço com os influenciadores.

Seria ótimo que esses dois grupos trabalhassem juntos, mas parecem viver em mundos distintos. É uma pena, pois o público se informa por ambos, cada um com suas vantagens e desvantagens.


Veja esse artigo em vídeo:


O estudo aponta que apenas 36,9% dos influenciadores digitais se informam pela imprensa, a mesma quantidade dos que fazem isso a partir de fontes online que não sejam da mídia profissional. Sua principal “fonte” é a própria experiência (58,1%), seguido por pesquisas e entrevistas próprias (38,7%).

Para os influenciadores, as já citadas curtidas e visualizações de longe dão mais credibilidade a uma fonte. Depois vem a simples confiança em um amigo ou especialista (20,6%), seguida de perto pela reputação do autor (19,4%). Documentações são usadas apenas por 17,0% dos influenciadores.

Se apenas 4 entre 10 deles checam as informações antes de publicá-las, 33,5% publicam sem checar se confiarem na fonte. Outros 15,8% publicam sem verificar se considerarem o conteúdo divertido ou útil. Por fim 13,2% checam apenas se o que compartilharem for uma notícia.

Vale dizer que 59,0% desconhecem ou apenas ouviram falar de regras relacionadas às comunicações digitais e 56,4% conhecem treinamentos voltados para eles, mas só 13,9% desses participaram de algum. Isso faz com que saibam pouco sobre seus direitos e deveres como produtores de conteúdo, o que facilita com que 32,3% sofram com discursos de ódio nas redes. Tudo fica mais grave quando se pensa que ganhar dinheiro é a principal motivação de um quarto deles.

O estudo considera que alguém com mais de mil seguidores já pode ser considerado um seguidor, mas 68,0% dos entrevistados tinham até 10 mil seguidores. Desse valor a 100 mil seguidores, eram 25,0%. Apenas 1,6% tinham mais de 1 milhão de seguidores. A rede preferida é o Instagram (34,0%), seguido pelo Facebook (25,0%), o TikTok (16,4%) e YouTube (9%).

A categoria mais popular é de “moda e estio de vida” (39,3%). Na sequência, vêm “beleza” e “viagem e comida” (ambos com 34,0%), “jogos” (29,0%) e “comédia” (27,1%). Os estilos mais populares de publicações são “coisas bonitas” (18,0%), “entretenimento e memes” (15,6%) e “recomendações” (13,8%).

Ao contrário da imprensa, que, a despeito de imperfeições, segue regras rígidas para produção de conteúdo, esse amadorismo dos influenciadores representa um sério ponto de atenção.

 

“Desordem informacional”

Em 2017, um estudo do Conselho da Europa e da Universidade de Harvard classificou a “desordem informacional” em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Influenciadores, muitas vezes, se encontram na segunda categoria, quando espalham informações incorretas por confiarem em fontes ruins ou por não saberem como verificar uma informação.

O instituto britânico Alan Turing detalhou em 2021 como uma sociedade pode ameaçar a própria sobrevivência com ataques deliberados à aquisição de conhecimento. Segundo a pesquisa, há quatro ameaças a isso, nenhuma ao acaso. A primeira são pessoas que atrapalham as decisões com desinformação, de maneira consciente ou não. Há também o excesso de informação, que atrapalha as pessoas na separação de verdades e mentiras. Elas também se acostumaram a rejeitar o que desafia suas ideias, particularmente se houver uma forte identidade no grupo. E, por fim, as redes sociais tornaram mais difícil avaliar a confiabilidade das fontes.

A pesquisa conclui que, quando não sabemos em quem acreditar, confiamos naquilo que nos mostra o mundo como queremos. Novamente os influenciadores podem se tornar ferramentas poderosas para a desinformação, mesmo inconscientemente.

Infelizmente as perspectivas de melhora desse quadro não são animadoras, diante da resistência das redes sociais de sofrerem qualquer tipo de responsabilização e do persistente amadorismo dos influenciadores. A colaboração desses profissionais com jornalistas, atuando de maneira complementar, traria grande benefício à sociedade.

Os influenciadores têm alcance e confiança de seus seguidores, além de dominar a linguagem das plataformas digitais. Já os jornalistas possuem ética e técnica para produzir informações precisas e contextualizadas. Uma parceria efetiva entre essas comunidades poderia não apenas mitigar os impactos da desinformação, como fortalecer a confiança no ecossistema informacional.

Infelizmente isso esbarra em barreiras culturais e estruturais. Influenciadores priorizam sua autonomia criativa, e podem ver jornalistas como representantes de um modelo de comunicação pouco dinâmico e distante da realidade das redes. Jornalistas, por sua vez, frequentemente subestimam a capacidade dos influenciadores de se adaptarem às boas práticas jornalísticas.

A desinformação é um dos maiores desafios dessa geração. Ela sempre existiu, mas as redes sociais transformaram o que antes não passava de fofocas restritas em uma indústria milionária de distorção da realidade. Apesar desse fenômeno digital ter menos de uma década, já provocou danos irreparáveis no mundo.

A solução desse problema depende de todos nós, começando por escolhermos fontes confiáveis de informação. O estudo da Unesco mostra que, se influenciadores e jornalistas conseguissem juntar forças criativamente, poderiam construir ambientes informacionais mais saudáveis, transparentes e comprometido com a verdade.

A sociedade agradecerá muito se isso acontecer!

 

O Parlamento Australiano, que aprovou uma lei que proíbe menores de 16 anos nas redes sociais - Foto: Dietmar Rabich/Creative Commons

Austrália põe fogo no debate ao proibir redes sociais para menores de 16 anos

By | Tecnologia | No Comments

Enquanto o Supremo Tribunal Federal (STF) debate regras mais rígidas para as redes sociais no Brasil, a Austrália “pôs fogo” no debate ao aprovar, no último dia 28, uma lei que sumariamente proíbe o uso dessas plataformas por qualquer pessoa com menos de 16 anos. E a responsabilidade para isso não acontecer recai sobre essas empresas, sob pena de multas equivalentes a quase R$ 200 milhões.

Apesar de restrições às redes sociais serem debatidas no mundo todo, essa é a primeira legislação que impede seu uso por crianças e adolescentes em qualquer situação. Ela também inova por atribuir às big techs a função de “porteiro”.

A lei despertou aplausos e gritarias. Especialistas afirmam que a iniciativa representa um passo importante para proteger os mais jovens de sérios riscos a que são expostos nessas plataformas, como cyberbullying, assédio moral e sexual, desinformação e outros conteúdos que podem provocar sérios problemas de saúde mental e até a suicídio. Também é vista como maneira de responsabilizar empresas por priorizarem lucros em detrimento da segurança dos mais jovens.

Os críticos, capitaneados pelas próprias big techs, dizem que a lei é inócua, pois os adolescentes encontrarão maneiras de burlar o sistema. Argumentam que isso pode privar os mais jovens de informações importantes e restringiria sua capacidade de socialização. Por fim, a lei prejudicaria a privacidade desses usuários.

A iniciativa australiana escancara o poder desmedido que as big techs construíram. Nunca houve empresa, governo ou instituição capaz de influenciar decisivamente a vida de bilhões de pessoas ao redor do mudo, enfrentando legislações e culturas de países muito diferentes. Resta saber se a lei conseguirá mesmo proteger os mais jovens, e como isso pode incentivar outros países a criarem legislações semelhantes.


Veja esse artigo em vídeo:


Há duas décadas, a desinformação era restrita a falas de políticos e a veículos sensacionalistas, discursos de ódio não se alastravam além de pequenos grupos e fatores de ansiedade adolescente eram muito mais facilmente manejáveis. As redes sociais criadas naquela época, como o Facebook, o Instagram e o Twitter, não foram pensadas para se tornar os veículos que dariam alcance planetário e velocidade descontrolada a tudo isso e a muitos outros conteúdos nocivos.

Elas argumentam que não têm como controlar tudo que seus usuários publicam em suas páginas, e se eximem de qualquer responsabilidade, apoiando-se em legislações como a seção 230 da americana CDA (sigla em inglês para “Lei de Decência nas Comunicações”) e o artigo 19 do Marco Civil da Internet brasileiro.

Leis como essas foram fundamentais para o desenvolvimento das redes sociais, mas foram criadas para realidades que há muito não existem mais. Essas plataformas deixaram de ser inocentes veículos de conteúdos de terceiros quando seus algoritmos passaram a identificar e promover aqueles que geram mais engajamento e lucros, mesmo sabendo que costumam ser publicações com os problemas já citados.

Isso foi evidenciado em outubro de 2021, quando a ex-gerente de produtos do Facebook Frances Haugen divulgou milhares de documentos internos da Meta (empresa dona do Facebook, Instagram e WhatsApp) que explicitavam que a empresa sabe do problema e faz muito menos do que poderia para evitá-lo, especialmente no que se refere a adolescentes, pois isso prejudicaria os seus lucros. O escândalo ficou conhecido como “Facebook Papers”.

No dia 31 de janeiro, em audiência no Senado americano sobre o impacto das redes sociais em crianças, o CEO da Meta, Mark Zuckerberg, se levantou e pediu desculpas aos pais de vítimas jovens das redes sociais que estavam no local. O senador republicano Josh Hawley disse a ele que “seu produto está matando pessoas”.

Dado que o grave problema existe e está indelevelmente associado às redes sociais, mas elas não podem ou não querem resolvê-lo, a solução seria simplesmente “cortar o mal pela raiz”, tirando os mais jovens dali?

 

Grandes poderes e responsabilidades

A Austrália acha que sim! Levantamento da empresa de pesquisas YouGov realizada no mês passado indicou que 77% dos australianos apoiam a proibição de menores de 16 anos nas redes sociais. A lei passa a valer em 2025 e as empresas terão que se adaptar até uma data que ainda não foi definida.

Curiosamente, a Meta prometeu para o próximo ano o recurso “classificador de adultos”, que usará inteligência artificial para descobrir a idade real de um usuário. Se concluir que tem menos de 18 anos, a conta será automaticamente classificada como de adolescente, com várias restrições. Para isso, a tecnologia monitorará publicações e gostos do próprio usuário e de seus amigos. Ao se tentar alterar a idade, o sistema poderá exigir que o usuário grave um vídeo para estimá-la por características faciais.

Isso é muito bem-vindo, mas obviamente a Meta não quer que os valiosos e engajados adolescentes deixem de usar seus produtos. Na verdade, antes dos “Facebook Papers”, a empresa pensava em criar versões de seus sistemas para usuários com menos de 13 anos, como o “Instagram Kids”. Depois do escândalo, a empresa interrompeu esses projetos.

As big techs estão chamando a nova lei australiana de “vaga”, “precipitada” e “contrária a normas internacionais”. De fato, ela foi debatida e aprovada no Parlamento Australiano em apenas uma semana, mas isso se deu após um longo debate público.

Os resultados dessa iniciativa provavelmente influenciarão debates semelhantes em outros países. É o caso do Reino Unido, que está realizando estudos para uma lei muito semelhante à australiana.

A regulamentação dessas plataformas se faz necessária pela incomensurável influência que elas exercem sobre nós, muitas vezes de forma bastante negativa. É preciso criar padrões globais para regulamentação, evitando que essas empresas se aproveitem de brechas legais em países com legislações mais permissivas.

Mas tudo isso precisa ser acompanhado por programas sérios de educação digital e midiática da população, começando nos primeiros anos escolares. Temos que formar pessoas mais críticas e menos suscetíveis a manipulações.

Com seus bilhões de usuários, as big techs se tornaram não apenas um negócio muito lucrativo, mas uma poderosa força política. Qualquer que seja o modelo para minimizar os aspectos tóxicos de seu uso deve considerar o envolvimento e a responsabilização dessas empresas, para que sejam mais transparentes e éticas.

Todos os países precisam exigir ambientes digitais mais saudáveis e seguros, sem sufocar a inovação ou comprometer os direitos fundamentais dos cidadãos. Por isso, uma boa regulamentação dessas plataformas não deve ser vista como um obstáculo, mas como uma oportunidade para elaborar um futuro digital responsável.

 

Alfie (Lucien Laviscount) e Emily (Lily Collins), com a torre Eiffel ao fundo, em cena de “Emily em Paris” – Foto: reprodução

O que “Emily em Paris” diria sobre o câncer de mama

By | Tecnologia | No Comments

Que o apreço pela verdade anda em baixa, não é surpresa. Há muitos anos, a pós-verdade, aquela que prega que a versão dos fatos que interessam às pessoas é mais importante que os fatos em si, tornou-se uma muleta que justifica que pensem e façam o que quiserem, por mais absurdo que seja. Mas observo apreensivo uma nova fase dessa “paranoia coletiva”, em que alguns esperam que a própria realidade se curve aos seus devaneios, como se fossem o centro de seus próprios universos.

Isso se manifesta de maneira mais ou menos escancarada. Um dos exemplos mais emblemáticos e antigos é aquela turma que insiste que a Terra seja plana, contrariando evidências tão enormemente abundantes, que tornam essa crença caricata e patética.

Às vezes, esse descolamento da realidade se torna tragicômico. Por exemplo, a série “Emily em Paris”, sucesso adolescente da Netflix, mostra uma França “perfeita”, que parece gravitar em torno da torre Eiffel, sem moradores de rua, sujeira, crimes ou ratos. Disso surgiram turistas abobalhados que vão a Paris e ficam indignados quando descobrem que ela –como qualquer cidade– não é daquele jeito, e tem problemas!

Em outros casos, as consequências podem ser graves, como em episódios recentes no Brasil de uma médica afirmando nas redes sociais que o câncer de mama não existe e de um médico que disse que a doença pode ser causada por mamografias. Se o fato de profissionais de saúde dizerem algo que pode literalmente matar pessoas não fosse grave o suficiente, esses posts legitimaram que uma legião de pessoas que, por qualquer motivo “não acreditam na doença”, viesse a público “expor essa verdade”.

Os três exemplos, apesar de muito diferentes entre si, guardam uma raiz comum que corrói a sociedade há anos: quando qualquer um pode arrebanhar uma multidão com distorções deliberadas do real, os ganhos civilizatórios começam a colapsar.


Veja esse artigo em vídeo:


Uma pergunta que surge naturalmente é por que alguém comete um desatino desses?

O caso dos médicos é ilustrativo. Eles realmente acreditam naquilo, o que faria deles reprodutores inocentes de um processo anterior de desinformação, ou têm interesses próprios e, portanto, se configurariam como criadores? Os casos estão sendo investigados pelos respectivos Conselhos Regionais de Medicina. No caso da médica, ela também está sendo processada pelo Colégio Brasileiro de Radiologia.

O câncer de mama é a principal neoplasia maligna entre as brasileiras, com mais de 70 mil novos casos por ano por aqui. Em 2022, matou 19.130 mulheres no Brasil. Quanto à mamografia, ela é a principal forma de prevenção de mortes pela doença.

Também podemos aprender com “Emily em Paris”. A série conta a vida de uma jovem publicitária americana que desembarca na Cidade-Luz para trabalhar. Atrapalhada e bem-intencionada, ela colhe tanto vitórias no trabalho, quanto confusões em relacionamentos. Mas chama atenção as locações e figurinos brilhantes, novos, limpos, com cores saturadas. A protagonista sempre veste alta-costura, troca de roupa várias vezes a cada episódio e nunca repetiu um modelo em quatro temporadas no ar!

Pode-se argumentar –com razão– que se trata apenas de entretenimento. Os roteiristas da série não buscam promover a desinformação. Entretanto, acabam contribuindo para um caldo de degradação cognitiva de pessoas que cada vez menos toleram que a vida não seja como imaginam ou esperam. Perdem a capacidade de separar fantasia de realidade, e atacam quem lhes mostra os fatos.

Não se pode desprezar as causas e as consequências de nada disso.

 

Sociedade autodestrutiva

Um estudo de 2021 do instituto britânico Alan Turing detalhou como uma sociedade pode ameaçar a própria sobrevivência, com ataques deliberados à capacidade de se adquirir conhecimento. Para a líder do estudo, Elizabeth Seger, da Universidade de Cambridge, “mesmo que estivesse claro como salvar o mundo, um ecossistema de informações estragado e não-confiável poderia impedir que isso acontecesse”.

Segundo a pesquisa, há quatro ameaças a isso, e nenhuma ao acaso. A primeira são pessoas que atrapalham as decisões com desinformação, algumas agindo de maneira consciente, outras inocentemente. Há ainda um excesso de informação que sobrecarrega nossa concentração, dificultando separar verdades de mentiras. As pessoas também se acostumaram a rejeitar o que desafia suas ideias, particularmente se houver uma forte identidade no grupo, criando o que os pesquisadores chamaram de “racionalidade limitada”. E, por fim, as redes sociais tornaram mais difícil avaliar a confiabilidade das fontes. O estudo conclui que, quando não sabemos em quem acreditar, confiamos naquilo que nos mostra o mundo como queremos.

Há alguns dias, discordei do professor da Universidade de Oxford William Dutton. Ele acredita que as mídias digitais podem disseminar informações enviesadas, mas afirma que as pessoas não são passivas, podendo encontrar facilmente a verdade na Internet ou com amigos e familiares, se assim desejarem. Até diminuiu a importância dos “filtros de bolha”, a que chamou de um “mito tecnológico determinista”. Afirmou ainda que o problema não são as plataformas, e sim os usuários. “Se quiserem, então sabem que podem obter o que desejarem deste canal de televisão e deste site, e ficarão felizes”, acrescenta.

Outro estudo, organizado em 2017 pelo Conselho da Europa e liderado por Claire Wardle, da Universidade de Harvard, trata da “desordem informacional”. Ela se divide em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Também explica que é preciso considerar quem são os agentes (quem cria e distribui a mensagem, e qual sua motivação), as mensagens em si, e os intérpretes (quem as recebe e suas interpretações).

Essas pesquisas demonstram, entre tantas outras, que as pessoas não conseguem sair facilmente da desinformação, especialmente quando 47% dos brasileiros deliberadamente se recusam a consumir notícias, como demonstrou o Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. O estudo diz ainda que apenas 43% dos brasileiros confiam no noticiário, o pior índice já registrado no país.

Em um mundo antes da pós-verdade, a vida fantasiosa de Emily seria apenas deleite para os olhos. Mas no cenário de negação em que vivemos, ela inadvertidamente contribui para a desordem informacional. Ainda assim, a jovem personagem, que sempre busca o melhor para todos, jamais negaria a existência do câncer de mama! Pelo contrário: provavelmente encontraria uma forma genial de usar as redes sociais para a conscientização da sociedade para esse gravíssimo problema de saúde.

 

Ilustração oficial anuncia os vencedores do Prêmio Nobel de Física de 2024: John Hopfield e Geoffrey Hinton - Foto: reprodução

A IA poderá curar o câncer, mas não podemos ignorar seus riscos pelos benefícios

By | Tecnologia | No Comments

A inteligência artificial já transformou o mundo, e esse processo está apenas engatinhando. Suas potencialidades beiram o inimaginável e devemos nos apropriar de todos esses recursos. Ainda assim, temos que cuidar para que isso não se torne um ópio que turve nossa compreensão dos riscos que ela também embute, mas vejo isso já acontecendo de forma preocupante.

Constato esse problema em pesquisadores, parte da imprensa, grandes empresários e outros líderes da sociedade, que abraçam a IA de maneira inconsequente, como se tudo dela fosse bom para a humanidade. Essas pessoas adotam um discurso deslumbrado e intransigente, criticando aqueles que propõem um debate equilibrado sobre benefícios e riscos da IA.

No dia 8, a Academia Real das Ciências da Suécia concedeu o Prêmio Nobel de Física a Geoffrey Hinton, da Universidade de Toronto (Canadá), e a John Hopfield, da Universidade de Princeton (EUA), pelos seus trabalhos pioneiros com redes neurais artificiais e com machine learning, bases da IA. Essa turma correu para incensar a vitória dessa tecnologia, escondendo que, apesar de ser considerado o “padrinho da IA”, Hinton também é um forte crítico ao seu desenvolvimento descuidado.

A defesa inabalável da IA é criadora e criatura de um profundo processo de desordem informacional que beneficia as empresas do setor. Não é um fenômeno novo: há muitos anos, as big techs manipulam a opinião pública em favor das redes sociais. Com isso, mesmo diante dos seus evidentes problemas, uma parcela significativa da população ainda as apoia irrestritamente por seus inegáveis benefícios, mas ignorando os igualmente óbvios prejuízos.

Falhamos ao impedir que essa desinformação favorável às redes sociais criasse raízes tão profundas, que impediram que essas plataformas evoluíssem de maneira mais benéfica à humanidade. Não podemos repetir o erro com a inteligência artificial!


Veja esse artigo em vídeo:


Além de comemorar o reconhecimento de seu trabalho pelo Nobel, Hinton aproveitou a entrevista que concedeu logo após o anúncio de sua vitória para reforçar essas preocupações. E já no segundo minuto de sua fala, criticou Sam Altman, CEO da OpenAI (criadora do ChatGPT), por, segundo ele, “estar muito menos preocupado com a segurança que com os lucros”, algo que classificou como “lamentável”.

Para ele, as transformações pela IA serão comparáveis às da Revolução Industrial, com a diferença que, em vez de superar as pessoas na força física, superará na força intelectual. “Isso trará aumentos brutais na produtividade, mas também temos de nos preocupar com uma série de possíveis consequências ruins, particularmente com a ameaça de que essas coisas saiam do controle”, disse.

Em maio do ano passado, Hinton se demitiu do Google para, segundo ele, poder criticar livremente os caminhos da IA e a disputa sem limites entre as big techs, o que poderia criar “algo realmente perigoso”. Ao The New York Times, disse na época estar arrependido por ter contribuído com isso. E na entrevista do dia 8, disse que, apesar disso, teria feito tudo de novo, pois, na época, não podia prever esses riscos no futuro.

Hinton comemorou o prêmio na sede do Google, junto com ex-colegas e ex-alunos, entre eles Ilya Sutskever, ex-cientista-chefe da OpenAI que tentou demitir, sem sucesso, Sam Altman no ano passado. E o local escolhido é emblemático, demonstrando como a ciência no setor depende umbilicalmente dos recursos das big techs para financiar suas milionárias pesquisas.

Não há nenhum problema na colaboração de corporações e cientistas, muito pelo contrário: se bem conduzida, isso pode trazer grandes benefícios à humanidade. Deve-se apenas ter cuidado para que isso não se distorça para gerar apenas lucros irresponsáveis, como pode estar acontecendo com a IA.

 

Alterações da realidade

Para que as empresas lucrem mais, a opinião pública precisa ser convencida de que tudo está bem, e que suas decisões são tomadas para o bem comum. E os diferentes atores sociais mencionados anteriormente têm um papel essencial nisso.

É o caso de Bill Gates, que vem, há meses, dando incontáveis entrevistas e palestras sobre como a IA tornará o mundo um lugar melhor para todos. Lançou até uma série na Netflix (muito bem-feita), chamada “O Futuro de Bill Gates”, onde reforça a ideia.

O fundador da Microsoft, maior investidora da OpenAI, afirma repetidamente que a IA permitirá que as pessoas trabalhem menos dias na semana. Em tese, isso poderia acontecer, porém o mais provável é que, com o aumento de produtividade, gestores demitam em massa, com os remanescentes trabalhando todos os dias da semana.

Em 2021, pesquisadores da Universidade de Cambridge (Reino Unido) publicaram um estudo que explicava mecanismos de ataque à capacidade da população de adquirir conhecimento. E uma das principais ameaças são as pessoas que disseminam desinformação, divididas em dois grupos. O primeiro, batizado de “adversários”, deliberadamente manipula informações, promove ataques ou incita seguidores para confundir ou enganar a população para atingir seus objetivos. O segundo, os “trapalhões”, de maneira inocente e até bem-intencionada, espalha essas bobagens, como acontece naquele grupo da família no WhatsApp.

Pelas suas informações privilegiadas, é muito mais provável que Gates e Altman sejam “adversários”, e não “trapalhões”. Nesses últimos, estão aqueles que usam a IA de maneira pouco crítica, achando que ela é uma grande assistente, quando, na verdade, em breve podem perder seu emprego para ela, pelo uso limitado que fazem.

No final das contas, o excesso de informação sobre a IA, a polarização da sociedade e o papel dos “adversários” e dos “trapalhões” podem atrapalhar profundamente o desenvolvimento de bons usos da IA, pois a população pode adquirir uma visão pouco crítica sobre essa tecnologia. Assim como aconteceu as redes sociais, muito mais que as pessoas, as grandes beneficiadas desse processo são a big techs.

Hinton afirma categoricamente que não se sabe como evitar os riscos criados pela IA. Por isso, ele afirma que mais pesquisas independentes sobre isso são urgentes. Caso contrário, esse processo de degradação cognitiva seguirá seu curso, até que eventualmente seja tarde demais e seus temores se concretizem.

Temos que nos apropriar de tudo de bom que a IA nos oferece, e não é pouca coisa. Mas não podemos ser deslumbrados inconsequentes diante disso.

 

Inteligência artificial pode deixar o mundo mais seguro e também perigoso

By | Tecnologia | No Comments

Como de qualquer ferramenta, os resultados da inteligência artificial dependem das ações de quem a utiliza. Pessoas que fazem usos positivos dela produzirão bons frutos. Já as de má índole podem causar danos profundos. Com seu poder disruptivo, essas consequências podem ser críticas! Esse foi o tema de um dos principais painéis do Web Summit Rio, um dos mais importantes eventos globais de tecnologia, mídia e inovação, que aconteceu no Rio de Janeiro, de terça a quinta da semana passada.

Um dos problemas deriva de a IA oferecer mecanismos para se alterar a realidade ou criar mentiras muito convincentes. Isso abre incontáveis possibilidade de golpes, ameaçando indivíduos, empresas e sociedades inteiras, como no caso de eleições. “Se a confiança for perdida, ficará muito difícil continuar inovando em coisas boas na IA”, disse no painel o estoniano Kaarel Kotkas, CEO da empresa de segurança Veriff.

Felizmente a mesma IA oferece recursos para combater essas ameaças. “A gente precisa pensar que seremos cada vez mais uma sociedade baseada em tecnologia”, me disse no evento Cesar Gon, CEO da empresa de tecnologia CI&T. “É importante acompanhar para onde a tecnologia vai e criar limites, mas garantindo que a ciência e a tecnologia continuem evoluindo para resolver os problemas humanos”, explicou, ressaltando que a IA deve sempre estar alinhada com os interesses da sociedade.

Diante de tanto poder computacional, chega a ser irônico que a maioria dos golpes não envolva invasão de sistemas. O elo mais frágil na segurança continua sendo o ser humano, enganado de diferentes maneiras para que repasse informações pessoais (como senhas) ou realize ações prejudiciais, uma técnica chamada de engenharia social. O que muda nisso com a IA é que os procedimentos para confundir as pessoas se tornam mais convincentes, difíceis de se identificar, e agora atingem muita gente, para aumentar a chance de fazerem suas vítimas.


Veja esse artigo em vídeo:


Esse é um dos grandes desafios da sociedade atualmente. Qualquer pessoa, mesmo alguém que domine a tecnologia, pode cair em golpes. Sua solução passa necessariamente pela educação dos usuários, mas também pelo comprometimento de empresas –de big techs a startups– para um desenvolvimento responsável dessas soluções, e de autoridades que criem regras claras para garantir isso.

Nesse cenário, técnicas tradicionais de proteção digital perdem eficiência. Mesmo autenticações em dois fatores –quando, além da senha, o usuário se autentica por um segundo método– podem expor pessoas e empresas. As companhias precisam adotar abordagens em camadas e usar múltiplas tecnologias, como autenticação avançada, verificação de dispositivos e incorporação preventiva de IA para detectar fraudes.

Os dados dos usuários valem ouro para os bandidos, mas também são importantes para sua identificação mais precisa. As empresas precisam ser transparentes sobre como serão usados, para que as pessoas se sintam confortáveis em compartilhá-los.

“Quando elas entendem esse valor, podem tomar uma decisão muito melhor sobre se querem compartilhar seus dados, para terem mais segurança”, disse no mesmo painel André Ferraz, CEO da empresa de identificação Incognia. “Se nós não formos capazes disso, as pessoas poderão deixar de acreditar na Internet”, concluiu.

As grandes empresas de tecnologia têm um papel decisivo na construção dessas boas práticas e na educação do mercado, até mesmo porque elas têm muito a perder se a situação se deteriorar para um cenário de desconfiança generalizada. “É essencial para elas perceberem que ignorar a importância de construir confiança e segurança em seus sistemas poderia prejudicar sua capacidade de implementar amplamente a tecnologia no futuro”, me explicou Kotkas. “Negligenciar isso poderia resultar em grandes repressões regulatórias e interromper o progresso na criação de novas tecnologias.”

A inteligência artificial também potencializa muito outro câncer social que se disseminou pelas redes sociais: a desinformação. O assunto foi abordado em diversas apresentações no Web Summit Rio, e ganha muita força em nesse ano, quando as maiores democracias do mundo realizarão eleições, incluindo municipais no Brasil, presidenciais nos EUA e gerais na Índia, país mais populoso do mundo, cujo pleito começou na semana passada e se estenderá por seis semanas.

 

Absurdos possíveis

As plataformas atuais de inteligência artificial tornaram muito mais fáceis, rápidas e baratas as confecções de deep fakes, técnica capaz de criar áudios, fotos e vídeos de pessoas realizando ações e dizendo coisas que nunca fizeram. Ela já existe há alguns anos, mas antes exigia equipamentos caros e bom conhecimento técnico, o que a tornava uma aplicação de nicho. Agora não é mais assim!

“Nas próximas eleições, o maior desafio não são as imagens, mas os áudios”, advertiu em outro painel Renata Lo Prete, editora-chefe do Jornal da Globo. “Com apenas um ou dois minutos da voz real de alguém, é possível criar um áudio falso perfeito, por menos de US$ 5 e em menos de cinco minutos, uma questão crítica, especialmente no Brasil, líder em trocas de mensagens pelo WhatsApp”, explicou.

Isso já acontece! Na eleição presidencial argentina, as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para atingir as imagens dos adversários. Em outro caso internacional, americanos receberam ligações com a voz do presidente Joe Biden dizendo para que não votassem nas eleições primárias. E por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, fazia ofensas contra professores. Tudo isso era falso!

Os diversos agentes da sociedade precisam se unir para que a IA seja usada de maneira positiva, sem “cortinas de fumaça” que mascaram interesses de um ou outro grupo. “Esse debate se misturou com uma visão bastante ingênua de fim do mundo, que nos afasta de discutir os reais impactos, que são a natureza do trabalho, os empregos, segurança, privacidade, ética e os algoritmos viciados”, explicou Gon.

“Nesse momento, talvez alguns humanos estejam procurando algo mágico”, disse o americano Todd Olson, CEO da empresa de software Pendo, em outro painel. “Não precisamos de mágica, mas de saber exatamente o que acontece, para que possamos aumentar a confiança na tecnologia”, concluiu.

Não dá para fugirmos desse debate, que nos envolve a todos cada vez mais. Gostemos ou não, a inteligência artificial se tornou nossa parceira. Por isso, ela precisa ser confiável e segura.


Assista e esse vídeo relacionado:

Íntegra da entrevista com Cesar Gon, CEO da CI&T

 

IA pode ser usada na eleição, mas seguindo regras para evitar fake news - Ilustração: Paulo Silvestre com Freepik/Creative Commons

Regras para IA nas eleições são positivas, mas criminosos não costumam seguir a lei

By | Tecnologia | No Comments

A tecnologia volta a ser protagonista na política, e não dá para ignorar isso em um mundo tão digital. Na terça, o Tribunal Superior Eleitoral (TSE) aprovou instruções para o pleito municipal desse ano. Os usos de redes sociais e inteligência artificial nas campanhas chamaram atenção. Mas apesar de positivas e bem-produzidas, elas não dizem como identificar e punir a totalidade de crimes eleitorais no ciberespaço, que só aumentam. Enquanto isso, a tecnologia continua favorecendo os criminosos.

Claro que a medida gerou uma polêmica instantânea! Desde 2018, as eleições brasileiras vêm crescentemente sendo decididas com forte influência do que se vê nas redes sociais, especialmente as fake news, que racharam a sociedade brasileira ao meio. Agora a inteligência artificial pode ampliar a insana polarização que elege candidatos com poucas propostas e muito ódio no discurso.

É importante que fique claro que as novas regras não impedem o uso de redes sociais ou de inteligência artificial. Seria insensato bloquear tecnologias que permeiam nossa vida e podem ajudar a melhorar a qualidade e a baratear as campanhas, o que é bem-vindo, especialmente para candidatos mais pobres. Mas não podemos ser inocentes e achar que os políticos farão apenas usos positivos de tanto poder em suas mãos.

Infelizmente a solução para essas más práticas do mundo digital não acontecerá apenas com regulamentos. Esse é também um dilema tecnológico e as plataformas digitais precisam se envolver com seriedade nesse esforço.


Veja esse artigo em vídeo:


A iniciativa do TSE não é isolada. A preocupação com o impacto político do meio digital atingiu um pico no mundo em 2024, ano com 83 eleições ao redor do globo, a maior concentração pelos próximos 24 anos. Isso inclui algumas das maiores democracias do mundo, como Índia, Estados Unidos e Brasil, o que fará com que cerca de metade dos eleitores do planeta depositem seus votos até dezembro.

As regras do TSE procuram ajudar o eleitor a se decidir com informações verdadeiras. Por isso, determinam que qualquer texto, áudio, imagem ou vídeo que tenha sido produzido ou manipulado por IA seja claramente identificado como tal. Além disso, proíbem que sejam criados sistemas que simulem conversas entre o eleitor e qualquer pessoa, inclusive o candidato. Vedam ainda as deep fakes, técnica que cria áudios e vídeos falsos que simulam uma pessoa dizendo ou fazendo algo que jamais aconteceu.

Além de não praticar nada disso, candidatos e partidos deverão denunciar fraudes à Justiça Eleitoral. As plataformas digitais, por sua vez, deverão agir por conta própria, sem receberem ordens judiciais, identificando e removendo conteúdos que claramente sejam falsos, antidemocráticos ou incitem ódio, racismo ou outros crimes. Se não fizerem isso, as empresas podem ser punidas. Candidatos que infringirem as regras podem ter a candidatura e o mandato cassados (no caso de já terem sido eleitos).

Outra inovação é equiparar as redes sociais aos meios de comunicação tradicionais, como jornal, rádio e TV, aplicando a elas as mesmas regras. Alguns especialistas temem que esse conjunto de medidas faça com que as plataformas digitais exagerem nas restrições, eliminando conteúdos a princípio legítimos, por temor a punições. E há ainda o interminável debate se elas seriam capazes de identificar todos os conteúdos problemáticos de maneira automática.

Os desenvolvedores estão se mexendo, especialmente por pressões semelhantes que sofrem nos Estados Unidos e na União Europeia. Em janeiro, 20 empresas de tecnologia assinaram um compromisso voluntário para ajudar a evitar que a IA atrapalhe nos pleitos. A OpenAI, criadora do ChatGPT, e o Google, dono do concorrente Gemini, anunciaram que estão ajustando suas plataformas para que não atendam a pedidos ligados a eleições. A Meta, dona do Facebook, do Instagram e do WhatsApp, disse que está refinando técnicas para identificar e rotular conteúdos criados ou modificados por inteligência artificial.

Tudo isso é necessário e espero que não se resuma apenas a “cortinas de fumaça” ou “leis para inglês ver”. Mas resta descobrir como fiscalizar as ações da parte ao mesmo tempo mais frágil e mais difícil de ser verificada: o usuário.

 

Ajudando o adversário a se enforcar

Por mais que os políticos e as big techs façam tudo que puderem para um bom uso desses recursos, o maior desafio recai sobre os cidadãos, seja um engajado correligionário (instruído ou não pelas campanhas), seja um inocente “tio do Zap”. Esses indivíduos podem produzir e distribuir grande quantidade de conteúdo incendiário e escapar da visão do TSE. Pior ainda: podem criar publicações ilegais como se fossem o adversário deliberadamente para que ele seja punido.

O tribunal não quer que se repita aqui o que foi visto na eleição presidencial argentina, em novembro. Lá as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para denegrir a imagens dos adversários.

Em outro caso internacional, os moradores de New Hampshire (EUA) receberam ligações de um robô com a voz do presidente Joe Biden dizendo para que não votassem nas primárias do Estado, no mês passado. Por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, circulou em dezembro com ofensas contra professores. Os dois casos eram falsos.

Esse é um “jogo de gato e rato”, pois a tecnologia evolui muito mais rapidamente que a legislação, e os criminosos se valem disso. Mas o gato tem que se mexer!

Aqueles que se beneficiam desses crimes são os que buscam confundir a população. Seu discurso tenta rotular essas regras como cerceamento da liberdade de expressão. Isso não é verdade, pois todos podem continuar dizendo o que quiserem. Apenas pagarão no caso de cometerem crimes que sempre foram claramente tipificados.

Há ainda o temor dessas medidas atrapalharem a inovação, o que também é questionável. Alguns setores fortemente regulados, como o farmacêutico e o automobilístico, estão entre os mais inovadores. Por outro lado, produtos reconhecidamente nocivos devem ser coibidos, como os da indústria do cigarro.

A inteligência artificial vem eliminando a fronteira entre conteúdos verdadeiros e falsos. Não se pode achar que os cidadãos (até especialistas) consigam identificar mentiras tão bem-criadas, mesmo impactando decisivamente seu futuro. E as big techs reconhecidamente fazem menos do que poderiam e deveriam para se evitar isso.

Ausência de regras não torna uma sociedade livre, mas anárquica. A verdadeira liberdade vem de termos acesso a informações confiáveis que nos ajudem a fazer as melhores escolhas para uma sociedade melhor e mais justa para todos.

Ao invés de atrapalhar, a tecnologia deve nos ajudar nessa tarefa. E ela pode fazer isso!

 

Criada por IA, Ren Xiaorong é a âncora do telejornal “Diário do Povo”, controlado pelo governo chinês - Foto: reprodução

IA agora produz e publica notícias, aumentando os riscos de desinformação

By | Jornalismo, Tecnologia | No Comments

O que você sentiria se o presidente da República telefonasse a você para lhe convencer de algo? Ou se alguém bem próximo, como um sobrinho ou até um filho, enviasse um áudio pedindo dinheiro? Muita gente desconfiaria que se trata de um golpe. Mas o rápido avanço da inteligência artificial está tornando esse tipo de engodo cada vez mais crível, fazendo vítimas em todos os estratos sociais.

Portanto, cuidado ao gritar que jamais cairá em algo assim. Por muito menos, todo mundo já acreditou em alguma fake news!

A ameaça cresce quando se observa que o uso da IA vai muito além da produção de textos, áudios e vídeos bem-feitos. Os robôs agora constroem sequências de notícias falsas sobre temas que lhes forem solicitados. Além disso, eles as distribuem de maneiras cada vez mais criativas, até como se fossem jornalistas humanos.

Não por acaso, em janeiro, o Fórum Econômico Mundial apontou a desinformação potencializada pela inteligência artificial como o maior risco que a humanidade enfrentará nos próximos anos.

As big techs, responsáveis pela criação dessas plataformas, estão se mexendo. No mesmo Fórum, Nick Clegg, presidente de assuntos globais da Meta (dona do Facebook, Instagram e WhatsApp), anunciou que a empresa está trabalhando com os principais nomes do setor para criar mecanismos que identifiquem claramente que um conteúdo foi sintetizado por IA. O executivo classificou a iniciativa como “a tarefa mais urgente” da indústria tecnológica atualmente.

Já passamos há anos do ponto em que as versões ficaram mais “importantes” para o público que os fatos, e falhamos miseravelmente no combate a isso, com consequências desastrosas. Nesse ano, com mais de 2 bilhões de pessoas votando em 58 países, o desafio de todos passa a ser não apenas resgatar o valor da verdade, como também serem capazes de identificá-la.


Veja esse artigo em vídeo:


Isso já acontece, inclusive onde estão as sedes das big techs: os EUA. O país começou 2024 com a polarização nas alturas pela eleição presidencial em novembro, que deve colocar novamente o atual presidente, Joe Biden, frente a seu antecessor, Donald Trump. O primeiro já vem sendo vítima de vídeos falsos desde o ano passado.

Recentemente, eleitores do Estado de New Hampshire receberam telefonemas com a voz de Biden enganando-os para não votarem na eleição primária local. Isso fez com que o governo proibisse o uso de IA para simular vozes em ligações automáticas no país.

Legislações costumam chegar atrasadas e muitas vezes são ineficientes, diante da velocidade da inovação. O debate sobre regulamentar redes sociais e agora a inteligência artificial vem deixando claro que se focar nas tecnologias é infrutífero, devendo se concentrar na responsabilização dos desenvolvedores e dos usuários que usam esses recursos indevidamente.

O grande problema é que, com ou sem regras claras, os vilões –sejam empresas ou usuários– continuam fazendo o que bem entendem para garantir seus lucros ou outros objetivos. A IA deve facilitar esse processo ainda mais, e eles sabem disso.

A imprensa historicamente desempenha o papel de proteger a sociedade desse tipo de abuso, mas ela própria vem sendo impactada pela inteligência artificial, seja em seus próprios processos, seja na concorrência de “pseudojornalistas digitais” que tentam enganar o público.

O Reuters Institute divulgou em janeiro um detalhado estudo sobre as perspectivas para esse ano sobre jornalismo, mídia e tecnologia. O documento reconhece esses desafios, destacando que a maioria do conteúdo na Internet será produzido por IA já em 2026. Segundo os pesquisadores, isso exige que jornalistas e empresas noticiosas repensem seu papel e propósito urgentemente.

 

“Jornalistas sintéticos”

Essas empresas já observam queda na sua audiência vinda de redes sociais, que passaram a privilegiar criadores no estilo TikTok ao invés de jornalismo, pois isso lhes favorece. O desafio do jornalismo aumenta com o crescimento das “Experiências Generativas de Busca”, um recurso de buscadores como Google e Bing, em que a IA generativa redige parágrafos que explicam brevemente o que o usuário procura. Com isso, ele não precisa mais visitar as páginas de onde as informações foram tiradas.

Em outras palavras, os veículos de comunicação alimentam essas plataformas e não ganham nem mesmo a visita do usuário em troca. É quase como se cada um de nós agora tivesse um “jornalista sintético” a nossa disposição para nos explicar qualquer assunto.

Parece ótimo, mas isso embute um risco enorme: esses parágrafos podem misturar alegremente informações jornalísticas de qualidade com fake news bizarras. Portanto, podem se converter em poderosas ferramentas de desinformação, além de achatar a audiência dos veículos de comunicação.

Pesquisadores acreditam que, nesse ano, plataformas de inteligência artificial também passem a produzir grandes volumes de desinformação, não mais dependendo de comando individuais, mas seguindo diretrizes mais amplas. Como a publicação é automática, isso pode inundar as redes sociais com informações falsas, que soterrariam o conteúdo jornalístico diante dos algoritmos. Além disso, países como China e até Venezuela já usam avatares ultrarrealistas que se passam por jornalistas humanos e despudoradamente leem notícias que lhes forem ordenadas.

O relatório do Reuters Institute indica que as empresas de comunicação pretendem reforçar o contato direto com seu público, em detrimento das plataformas digitais. Mas isso pode afastá-las ainda mais de sua audiência mais jovem e menos instruída, que se sente satisfeita com as notícias geradas por IA.

A inteligência artificial é uma ferramenta fabulosa e estamos em um caminho sem volta para sua adoção em todos os setores da economia, inclusive na comunicação. Apesar de todos esses desafios, ela também oferece muitos ganhos ao jornalismo, se bem usada.

O risco a que todos nós –e não apenas jornalistas– temos que estar atentos é a possibilidade de decisões básicas da sociedade civil, como em quem votar, sejam sequestradas por robôs sem ética. As empresas de comunicação não podem repetir com a IA o erro que cometeram ao desprezar o poder das redes sociais, quando ainda estavam começando. Precisam compreender e se apropriar dessa tecnologia, e ajudar toda a sociedade a fazer o mesmo.

Caso contrário, seremos cada vez mais cidadãos teleguiados.

 

Taylor Swift e suas cópias, que podem ser geradas por IA para convencer as pessoas - Foto: Paulo Silvestre com Creative Commons

Pessoas se tornam vítimas de bandidos por acreditarem no que desejam

By | Tecnologia | No Comments

Usar famosos para vender qualquer coisa sempre foi um recurso poderoso do marketing. Mas agora as imagens e as vozes dessas pessoas estão sendo usadas sem sua permissão ou seu conhecimento para promover produtos que eles jamais endossariam e sem que ganhem nada com isso.

Esse conteúdo falso é criado por inteligência artificial e está cada vez mais convincente. Além de anunciar todo tipo de quinquilharia, esses “deep fakes”, como é conhecida essa técnica, podem ser usados para convencer as massas muito além da venda de produtos, envolvendo aspectos políticos e até para se destruir reputações.

O processo todo fica ainda mais eficiente porque as pessoas acreditam mais naquilo que desejam, seja em uma “pílula milagrosa de emagrecimento” ou nas ideias insanas de seu “político de estimação”. Portanto, os bandidos usam os algoritmos das redes sociais para direcionar o conteúdo falso para quem gostaria que aquilo fosse verdade.

Há um outro aspecto mais sério: cresce também o uso de deep fakes de pessoas anônimas para a aplicação de golpes em amigos e familiares. Afinal, é mais fácil acreditar em alguém conhecido. Esse recurso também é usado por desafetos, por exemplo criando e distribuindo imagens pornográficas falsas de suas vítimas.


Veja esse artigo em vídeo:


As redes sociais, que são os maiores vetores da desinformação, agora se deparam sob pressão com o desafio de identificar esse conteúdo falso criado por IA para prejudicar outras pessoas. Mas seus termos de uso e até alguns de seus recursos tornam essa tarefa mais complexa que as dificuldades inerentes da tecnologia.

Por exemplo, redes como TikTok e Instagram oferecem filtros com inteligência artificial para que seus usuários alterem (e supostamente “melhorem”) suas próprias imagens, uma distorção da realidade que especialistas afirmam criar problemas de autoestima, principalmente entre adolescentes. Além disso, muitas dessas plataformas permitem deep fakes em algumas situações, como paródias. Isso pode tornar esse controle ainda mais difícil, pois uma mentira, uma desinformação, um discurso de ódio pode se esconder subliminarmente nos limites do aceitável.

O deep fake surgiu em 2017, mas seu uso explodiu nesse ano graças ao barateamento das ferramentas e à melhora de seus resultados. Além disso, algumas dessas plataformas passaram a convincentemente simular a voz e o jeito de falar de celebridades. Também aprendem o estilo de qualquer pessoa, para “colocar na sua boca” qualquer coisa. Basta treiná-las com alguns minutos de áudio do indivíduo. O “pacote da enganação” se completa com ferramentas que geram imagens e vídeos falsos. Na prática, é possível simular qualquer pessoa falando e fazendo de tudo!

A complexidade do problema cresce ao transcender as simulações grosseiras e óbvias. Mesmo a pessoa mais ingênua pode não acreditar ao ver um vídeo de uma celebridade de grande reputação destilando insanidades. Por isso, o problema maior não reside em um “fake” dizendo um absurdo, mas ao falar algo que o “original” poderia ter dito, mas não disse. E nessa zona cinzenta atuam os criminosos.

Um exemplo pôde ser visto na terça passada (5), quando o apresentador esportivo Galvão Bueno, 73, precisou usar suas redes sociais para denunciar um vídeo com uma voz que parecia ser a sua insultando Ednaldo Rodrigues, presidente da Confederação Brasileira de Futebol (CBF). “Fizeram uma montagem com coisas que eu nunca disse e eu nunca diria”, disse Galvão em sua defesa.

Ele não disse mesmo aquilo, mas poucos estranhariam se tivesse dito! Duas semanas antes, após a derrota da seleção brasileira para a argentina nas eliminatórias da Copa do Mundo, o apresentador fez duras críticas ao mesmo presidente. Vale dizer que há uma guerra pela liderança da CBF, e Rodrigues acabou sendo destituído do cargo no dia 7, pela Justiça do Rio.

 

Ressuscitando os mortos

O deep fake de famosos já gerou um enorme debate no Brasil nesse ano. No dia 3 de julho, um comercial sobre os 70 anos da Volkswagen no país provocou polêmica ao colocar a cantora Elis Regina (morta em 1982) cantando ao lado da filha Maria Rita. Elis aparece no filme dirigindo um antigo modelo de Kombi, enquanto a filha aparece ao volante de uma ID.Buzz, furgão elétrico recém-lançado, chamado de “Nova Kombi”.

Muita gente questionou o uso da imagem de Elis. Mas vale dizer que, nesse caso, os produtores tiveram a autorização da família para o uso de sua imagem. Além disso, ninguém jamais propôs enganar o público para que achasse que Elis estivesse viva.

Outro exemplo aconteceu na recente eleição presidencial argentina. Durante a campanha, surgiram imagens e vídeos dos dois candidatos que foram ao segundo turno fazendo coisas condenáveis. Em um deles, o candidato derrotado, Sergio Massa, aparece cheirando cocaína. Por mais que tenha sido desmentido, ele “viralizou” nas redes e pode ter influenciado o voto de muita gente. Tanto que, no Brasil, o Tribunal Superior Eleitoral (TSE) já se prepara para combater a prática nas eleições municipais de 2024.

Na época do comercial da Volkswagen, conversei sobre o tema com Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, “ficará mais difícil, a olho nu, detectar o que é verdadeiro”, restando aos peritos identificar as falsificações. “O desafio, daqui para frente, é que será mais comum ver esse tipo de debate na Justiça”, acrescentou.

Essa é uma preocupação mundial. As fake news mais eficientes não escancaram uma informação falsa “completa”. Ao invés disso, o conceito que pretendem impor é apresentado aos poucos, em pequenos elementos aparentemente desconexos, mas criteriosamente entregues, para que a pessoa conclua “sozinha” o que os criminosos querem. Quando isso acontece, fica difícil convencê-la do contrário.

Não há clareza sobre como resolver esse problema. Os especialistas sugerem que exista algum tipo de regulamentação, mas ela precisa equilibrar a liberdade para se inovar e a garantia dos interesses da sociedade. Sem isso, podemos ver uma enorme ampliação da tragédia das fake news, construída por redes sociais que continuam não sendo responsabilizadas por disseminá-las.

Como determina a Constituição, todos podem dizer o que quiserem, mas respondem por isso. O desafio agora é que não se sabe mais se a pessoa disse o que parece ter dito de maneira cristalina diante de nossos olhos e ouvidos.

 

Graças à IA em novos celulares, qualquer um poderá alterar profundamente suas fotos - Foto: Akshay Gupta/Creative Commons

Celulares podem se tornar máquinas de distorcer a realidade

By | Tecnologia | No Comments

Quando a fotografia foi inventada, no século XIX, ela revolucionou o mundo por conseguir reproduzir facilmente a realidade. De lá para cá, ela só melhorou, culminando na fotografia digital, que transformou um hobby caro em uma diversão extremamente popular, consolidada com as câmeras cada vez mais poderosas nos celulares. Mas agora esses equipamentos podem ironicamente subverter a característica essencial da fotografia de retratar a realidade com precisão.

A culpa disso recai sobre a inteligência artificial. Ela já está presente há algum tempo nos softwares de captura e edição de imagens dos melhores celulares. Mas, até então, prestava-se a “melhorar” (note as aspas) as fotografias, usando técnicas para aumentar a sua fidelidade e refinar elementos como cores, brilho e contraste.

Isso começa a mudar agora, com o lançamento nos EUA, no dia 11, do Pixel 8 (sem previsão de chegada ao Brasil). O smartphone de US$ 700 do Google consegue efetivamente alterar a realidade fotografada. Isso quer dizer que, com ele, é possível, por exemplo, eliminar pessoas e objetos das fotos, alterar elementos das imagens ou modificar suas posições e até “melhorar” (de novo, com aspas) o rosto de pessoas combinando com a maneira que elas apareceram em outras fotos.

Como em todas as atuais plataformas baseadas na inteligência artificial generativa, alguns resultados dessas edições são decepcionantes e até grotescos. Outros, porém, ficam incrivelmente convincentes!

Já dizia São Tomé: “preciso ver para crer”. Parábolas à parte, é um fato que somos seres visuais: nosso cérebro tende a assumir como real o que está diante de nossos olhos. Por isso, vale perguntar até que ponto é positivo e até saudável dar a possibilidade de se distorcer a realidade de maneira tão simples.


Veja esse artigo em vídeo:


É curioso que a fotografia foi combatida por muitos quando surgiu, justamente pela sua capacidade de reproduzir, de maneira fácil, rápida e precisa, o mundo. Pintores diziam que o invento era algo grosseiro, que eliminava a subjetividade e a técnica dos artistas quando retratavam pessoas e paisagens. Grupos religiosos também a combatiam, por serem contrários à captura de imagens de “coisas feitas por Deus”.

Em 1826, o francês Joseph Nicéphore Niépce registrou seu quintal em uma placa de estanho revestida de betume, usando uma câmera escura por oito horas. Essa é considerada a primeira fotografia permanente. Três anos depois, ele fez um acordo com outro francês, Louis Jacques Mandé Daguerre, que aperfeiçoou o processo com o daguerreótipo, que precisava de “apenas” 30 segundos para fazer uma fotografia.

A patente do daguerreótipo foi vendida ao Estado francês em 1839, que a colocou em domínio público. Isso permitiu que a fotografia experimentasse grandes avanços ao redor do mundo. Provavelmente a empresa mais inovadora do setor foi criada pelo americano George Eastman em 1888: a Kodak. Entre suas contribuições, estão o rolo de filme (1889), a primeira câmera de bolso (1912) e o filme colorido moderno (1935).

O último grande invento da Kodak foi a fotografia digital, em 1975. Mas como os lucros da empresa dependiam da venda de filmes, seus executivos não deram importância a ela. Foi um erro fatal, pois a tecnologia se tornou incrivelmente popular e, quando a empresa decidiu olhar para ela, as japonesas já dominavam o mercado.

Em 1999, foi lançado o Kyocera VP-210, o primeiro celular com câmera capaz de tirar fotos, que tinham resolução de 0,11 megapixel (o iPhone 15 tira fotos de 48 megapixels). E isso nos traz de volta ao dilema atual.

 

Realidade alternativa

As fotografias nos celulares se tornaram tão realistas e detalhadas que o próprio negócio de câmeras fotográficas entrou em colapso. Elas continuam existindo, mas hoje praticamente só profissionais as utilizam, pois sabem como aproveitar todos os recursos daqueles equipamentos para fotografias realmente diferenciadas.

Os recursos de IA do Pixel 8 fazem parte de uma nova versão do Google Fotos, o aplicativo de edição e publicação de fotos da empresa, que é nativo nos smartphones Android, mas também pode ser baixado para iPhones. Isso significa que, em tese, outros aparelhos poderão ganhar esses recursos em breve, desde que, claro, tenham capacidade de processamento para isso.

A alteração de fotografias sempre existiu, mesmo antes dos softwares de edição de imagem. Entretanto fazer isso era difícil, exigindo equipamentos e programas caros e muita habilidade técnica. Além disso, as fotos editadas eram apresentadas como tal, sem a pretensão de levar quem as visse a acreditar que fossem reais (salvo exceções, claro)..

O que se propõe agora é que isso seja feito de maneira muito fácil, por qualquer pessoa, sem nenhum custo adicional e em equipamentos vendidos aos milhões. Isso levanta algumas questões éticas.

A primeira delas é que as pessoas podem passar a se tornar intolerantes com a própria realidade. O mundo deixaria de ser o que é, para ser o que gostariam. Isso é perigosíssimo como ferramenta para enganarem outros indivíduos e até a si mesmas.

A sociedade já experimenta, há anos, um crescimento de problemas de saúde mental, especialmente entre adolescentes, devido a fotos de colegas com corpos “perfeitos” (pela terceira vez, as aspas). Isso acontece graças a filtros com inteligência artificial em redes sociais, especialmente Instagram e TikTok, que fazem coisas como afinar o nariz, engrossar os lábios, diminuir os quadris e alterar a cor da pele. O que se observa mais recentemente são adolescentes insatisfeitos com seus corpos não pelo que veem em amigos, mas pelo que veem em suas próprias versões digitais.

Há um outro aspecto que precisa ser considerado nesses recursos de alteração de imagens, que são os processos de desinformação. Muito provavelmente veremos grupos que já se beneficiam das fake news usando intensamente essa facilidade para convencer seu público com mentiras cada vez mais críveis.

Hoje esses recursos ainda estão toscos demais para um convencimento completo. Mas é uma questão de pouco tempo até que eles se aproximem da perfeição.

Não tenham dúvidas: quando estiver disponível, as pessoas usarão intensamente essa tecnologia, estando imbuídas de boas intensões ou de outras não tão nobres assim. Quem será responsabilizado quando começarem a surgir problemas disso?

Assim como acontece com as redes sociais, as desenvolvedoras se furtam disso, dizendo que apenas oferecem um bom recurso, e as pessoas que fazem maus usos deles. Em tese, isso é verdade. Mas alegar inocência dessa forma chega a ser indecente! É como entregar uma arma carregada na mão de uma criança e torcer para que nada de ruim aconteça.

Chegamos ao mundo em que a ilusão se sobrepõe à realidade, mas não estamos prontos para lidar com isso.

 

Mãe beija criança na Faixa de Gaza, de onde saíram os ataques terroristas do Hamas - Foto: Libertinus/Creative Commons

Mais que mísseis, bombas e balas, a guerra hoje é feita também com imagens, palavras e versões odiosas

By | Jornalismo | No Comments

Desde o dia 7, o mundo assiste horrorizado à mais recente escalada da violência em Israel e na Palestina, deflagrada pelo ataque dos terroristas do Hamas, que cobrou milhares vidas dos dois lados até agora. Mas esse conflito não está acontecendo apenas na região da Faixa de Gaza: ele invadiu o mundo todo a partir das redes sociais, em uma guerra de versões recheada de palavras e imagens aterrorizantes.

Isso vem servindo de munição para grupos políticos e ideológicos que inescrupulosamente usurpam a barbárie para impor sua visão de mundo. Essas mensagens invadem nossas vidas a partir de computadores e celulares, inflamando pessoas que sequer entendem o que está acontecendo no Oriente Médio. Isso aumenta ainda mais a dor daquele confronto interminável, movido pelo ódio e pela intolerância dos radicais de ambos os lados.

Guerras não são ganhas apenas no campo de batalha: os vencedores também precisam conquistar corações e mentes da opinião pública. Desde a Primeira Guerra Mundial, isso vem acontecendo de maneira cada vez mais intensa e rápida, com o avanço da imprensa e da tecnologia. Mas a também horrenda invasão russa na Ucrânia inaugurou um novo tipo de “cobertura”, feita diretamente do front por combatentes, assim como pela população civil, com seus celulares. A fase atual do conflito israelo-palestino cristalizou isso.

Nesse fogo-cruzado ideológico e digital, as pessoas são praticamente forçadas a escolher um lado. Como palestinos e israelenses possuem seus argumentos, é importante desqualificar o inimigo, para angariar a simpatia internacional. Mas como a maioria da população não tem acesso a informações confiáveis e equilibradas, o que poderia ser um debate construtivo em busca da paz se torna uma arena de insultos.

Aqui o conflito não faz mortos como lá, mas o tecido social fica esgarçado pela ignorância!


Veja esse artigo em vídeo:


Um triste exemplo aconteceu na terça passada (10), em um debate sobre as causas do conflito, organizado pelo Instituto de Relações Internacionais da PUC-RJ. Mediado pela professora Monica Herz, ele reuniu Márcio Scalercio, docente do departamento, Nizar Messari, da Al Akhawayn University (Marrocos), e Michel Gherman, pesquisador da UFRJ, do centro de estudos de Sionismo e Israel da Universidade Ben Gurion do Negev, e do Centro Vital Sasson de Estudos do Antissemitismo da Universidade Hebraica de Jerusalém, além de coordenador acadêmico do Instituto Israel-Brasil.

Em sua fala, Gherman, condenou veementemente o ataque do Hamas como um ato terrorista. Tentou explicar as consequências nefastas disso aos próprios palestinos e expôs a necessidade de negociação com a Autoridade Nacional Palestina. Por isso, foi agredido por um grupo de alunos, que o acusavam de ser simpático ao Hamas e –pasmem– de ser antissemita.

Diante da impossibilidade de continuar sua fala, Gherman deixou o evento. “Eu vou embora, vocês ganharam”, disse ao sair. Apesar dos protestos de Herz pelo ocorrido, o debate virou um Fla-Flu ideológico entre os alunos.

O “pecado” de Gherman foi não ter destilado um ódio visceral contra o Hamas, apesar de ter deixado bastante claro que classificava o grupo como terrorista. Mas para a turma cega pelo ódio, qualquer um que não se comporte dessa forma deve ser silenciado. As vozes do bom-senso não lhes servem de espelho e pertencem ao “inimigo”.

É nessas horas que os estilhaços da guerra atingem o mundo todo. Quando perdemos a capacidade de dialogar civilizadamente com quem pensa de maneira diferente, o terror ameaça sociedades que suas bombas não conseguem atingir.

 

Streaming de terror

A imprensa profissional filtra o que publica, evitando fake news e conteúdos demasiadamente brutais, que visam aumentar o ódio até daqueles que mal entendem o que está acontecendo. As redes sociais, por outro lado, servem como gigantescos dutos descontrolados e se prestam à polarização irracional.

A ONU (Organização das Nações Unidas) declarou ter “claras evidências” de crimes de guerra e uma enorme quantidade de relatos de mortes de civis por grupos armados dos dois lados, que as propagandeiam pelas plataformas digitais. Eles buscam colher apoio para seus atos e aterrorizar a população do inimigo. E crianças e jovens acabam sendo bombardeados por isso, sem o mínimo preparo para lidar com tanto terror, servindo para depois engrossarem as fileiras da intolerância de todo tipo.

Os terroristas digitais são muito mais rápidos e numerosos que a imprensa. Além disso, como não têm nenhum compromisso com a verdade, usam não apenas imagens reais da guerra, como também conteúdo fora do contexto e ainda material gerado por inteligência artificial. A partir disso, aqueles que se identificam cegamente com qualquer dos lados se encarregam de espalhar o terror, seja verdadeiro ou falso.

Extremistas dos dois lados esperam exatamente que isso aconteça e seja normalizado, a ponto de ser apoiado. Isso não pode acontecer, pois cada grupo busca reescrever a história que ainda está sendo vivida, mas com suas ideias!

Não haverá paz enquanto extremistas dominarem os opostos no conflito. Para eles, massacres dos dois lados da fronteira servem para reforçar suas posições, entrincheirando-se no poder. Talvez essa seja a maior aberração dessa barbárie.

Nessa guerra em que a ideologia mata tanto quanto tiros, as imagens perderam sua capacidade de retratar a verdade. Pelo contrário, elas só mostram aquilo que quem as postou deseja impor. E por isso não é nenhuma surpresa ver a imprensa profissional sendo alvejada pelos mesmos grupos, por insistir em não apenas trazer os fatos, mas explicá-los para todo mundo, especialmente para quem sempre achou a crise entre palestinos e israelenses algo incompreensível, distante e desimportante.

O terrorismo não pode ser normalizado, relativizado ou aceito. Da mesma forma, o extremismo é o grande inimigo da paz, pois ele não ouve a voz do outro ou sequer aceita sua existência.

Quanto a cada um de nós, no conforto de nossas telas, precisamos entender que a vida não é binária. As pessoas não podem escolher um lado do conflito como quem decide para qual time torcerá, especialmente quando sua própria equipe foi desclassificada. Sabemos que a intolerância mata até nas torcidas organizadas.

 

Mark Zuckerberg, CEO da Meta: redes sociais entraram na briga contra o “PL das Fake News” - Foto: Anthony Quintano / Creative Commons

O poder das redes antissociais

By | Tecnologia | No Comments

No começo, as redes sociais eram espaços divertidos, para encontrarmos antigos amigos e conhecer gente nova. Eram os bons tempos do Orkut, do MySpace e do Friendster. O próprio Facebook surgiu em 2004 como um simples diretório de alunos da Universidade de Harvard. Mas isso mudou na última década, e essas redes têm ficado cada vez menos sociais.

No lugar dos conteúdos inocentes de amigos e de familiares, as páginas dessas plataformas foram tomadas de publicidade, publicações de influenciadores e conteúdo de interesse das próprias empresas. Os feeds, que prendem nossa atenção, se transformaram em ferramentas de convencimento fabulosas, que nos induzem desde comprar todo tipo de quinquilharia até em quem votar. O espaço social deu lugar à máquina publicitária mais eficiente já criada.

A redução no aspecto social teve um custo para usuários e para as próprias redes.

Há semanas, o Brasil vem debatendo o Projeto de Lei 2.630/20, apelidado de “PL das Fake News”, que busca regulamentar essas plataformas. E agora elas entraram de sola na briga, combatendo explicitamente a proposta em suas páginas.

Não é de se espantar: são elas as mais impactadas pelo projeto, e não os usuários, os negócios, as igrejas ou mesmo os políticos. As redes, cada vez mais poderosas e menos sociais, não podem mais se eximir de suas responsabilidades, e precisarão fazer muito mais que atualmente para a manutenção saudável da sociedade.


Veja esse artigo em vídeo:


Nada disso chega a ser novo, mas a magnitude do espaço que ocupa em nossas vidas tornou-se alarmante. Como disse o professor da Universidade de Yale Edward Tufte, no documentário “O Dilema das Redes” (Netflix, 2020), “existem apenas duas indústrias que chamam seus clientes de usuários: a de drogas e a de software”.

Algumas pessoas questionam o aumento desse poder em detrimento dos aspectos sociais. Isso vem provocando sangrias de usuários desencantados. Por isso, essas empresas também são prejudicadas, pois os usuários acabam migrando para plataformas menores e nichadas, onde o aspecto social ainda é relevante. Com isso, o sonho megalomaníaco de moguls como Mark Zuckerberg e Elon Musk de ter uma plataforma onde todos fariam de tudo, fica cada vez mais distante.

“Não é do interesse das redes sociais mudarem o formato de como operam e muito menos abrirem as caixas pretas com algoritmos”, explica Magaly Prado, pesquisadora do Instituto de Estudos Avançados da Universidade de São Paulo. “É notório verificar o espalhamento desenfreado de assuntos polêmicos e, principalmente, quando sacodem emoções.”

Isso explica atitudes como as vistas nos últimos dias, como quando o Google colocou um link para defender sua posição contrária à regulamentação na sua página de entrada, ou quando o Telegram enviou uma mensagem para todos seus usuários no Brasil, com o mesmo fim. Para fazer valer seu ponto de vista, não economizaram em afirmações falsas ou distorcidas. No caso do último, ainda carregou em frases de efeito e falsas, como dizer que “a democracia está sob ataque no Brasil”, que “a lei matará a Internet moderna” ou que “concede poderes de censura ao governo”.

Essas iniciativas provocaram reações no mundo político, jurídico e empresarial. A própria Meta, dona do Facebook, Instagram e WhatsApp, correu para dizer que não concordava com as afirmações do Telegram.

 

Abuso de poder?

Muitos argumentaram que essas atitudes das plataformas digitais poderiam ser consideradas “abuso de poder econômico”, pela enorme penetração que essas empresas têm na sociedade e pelo poder de convencimento de seus algoritmos. Apesar disso, juridicamente não se pode sustentar isso.

“O abuso de poder econômico pode ser resumido como a situação em que uma entidade dominante em um setor empresarial viola as regras da concorrência livre, impedindo que seus concorrentes, sejam eles diretos ou indiretos, conduzam seus negócios”, explica Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, as iniciativas do Google e do Telegram não se enquadram nisso. “Diferente seria se houvesse uma manipulação algorítmica que privilegiasse conteúdo alinhado com seu posicionamento, em detrimento de posições contrárias”, contrapõe.

De toda forma, esses episódios podem ser educativos. Eles ilustram muito bem o poder que as plataformas digitais desenvolveram, a ponto de se contrapor a governos eleitos e de jogar parte da população contra eles.

Ninguém ganha nada com isso!

“As redes perdem ao entulhar o feed dos internautas com mensagens falsas de interesses escusos, fugindo da ideia da Internet em unir as pessoas em uma esfera de sociabilidade e troca de saberes”, afirma Prado. De certa forma, leis como o “PL das Fake News” ao redor do mundo, como da União Europeia, China e Austrália, são reações aos descuidos com os aspectos sociais pelas plataformas, com a explosão das fake news, do discurso de ódio e de outros crimes nesses ambientes. Se essas empresas tivessem levado mais a sério esses cuidados, assim como os aspectos nocivos de seus algoritmos na saúde mental dos usuários, a sociedade não chegaria a essa cisão e talvez nada disso fosse necessário.

Talvez todos possamos aprender algo com a forma como as redes sociais cresceram. A liberdade nos permite criar coisas incríveis, mas ela não nos permite tudo! A liberdade de um termina quando começa a do outro, e o meio digital não se sobrepõe às leis de um país.

Não é um exagero dizer que as redes sociais são um invento que modificou nossas vidas profundamente, abrindo grandes oportunidades de comunicação e exposição. Mas se perderam pelo caminho. Ficaram demasiadamente poderosas, e isso subiu à cabeça de alguns de seus criadores.

Tristemente as grandes plataformas estão se tornando redes antissociais, onde o dinheiro supera os interesses daqueles que viabilizam o negócio: seus usuários. Por mais que não paguem por seus serviços (quem faz isso são os anunciantes), esse e qualquer negócio só prosperam se forem verdadeiramente benéficos a todos os envolvidos. Se a balança se desequilibra, como se vê agora, os clientes sempre encontrarão quem se preocupe de verdade com eles.

 

Ian Wilmut, biólogo do Instituto Roslin (Escócia), e a ovelha Dolly, primeiro clone bem-sucedido de um mamífero - Foto: divulgação

Corrida pela inteligência artificial não pode driblar leis ou ética

By | Tecnologia | No Comments

Diante do acalorado debate em torno do “PL das Fake News”, muita gente nem percebeu que outro projeto de lei, possivelmente tão importante quanto, foi apresentado no dia 3 pelo senador Rodrigo Pacheco (PSD-MG): o PL 2338/23, que propõe a regulação da inteligência artificial. Resta saber se uma lei conseguirá conter abusos dessa corrida tecnológica ou sucumbirá à pressão das empresas, como tem acontecido no combate às fake news.

Talvez um caminho melhor seria submeter o desenvolvimento da IA aos limites da ética, mas, para isso, os envolvidos precisariam guiar-se por ela. Nesse sentido, outro acontecimento da semana passada foi emblemático: a saída do Google de Geoffrey Hinton, conhecido como o “padrinho da IA”. Ele disse que fez isso para poder falar criticamente sobre os caminhos que essa tecnologia está tomando e a disputa sem limites que Google, Microsoft e outras companhias estão travando, o que poderia, segundo ele, criar algo realmente perigoso.

Em entrevista ao The New York Times, o pioneiro da IA chegou a dizer que se arrepende de ter contribuído para esse avanço. “Quando você vê algo que é tecnicamente atraente, você vai em frente e faz”, justificando seu papel nessas pesquisas. Hoje ele percebe que essa visão pode ser um tanto inconsequente.

Mas quantos cientistas e principalmente homens de negócios da “big techs” também têm essa consciência?


Veja esse artigo em vídeo:


Isso me lembrou do início da minha carreira, como repórter de ciência, quando o mundo foi sacudido, em fevereiro de 1997, pelo anúncio da ovelha Dolly, o primeiro mamífero clonado com sucesso. Apesar de sua origem incomum, ela viveu uma vida normal por seis anos, tendo até dado à luz seis filhotes. Depois dela, outros mamíferos foram clonados, como porcos, veados, cavalos, touros e até macacos.

Não demorou para que fosse levantada a questão se seria possível clonar seres humanos. Ela rendeu até a novela global “O Clone”, de Glória Perez, em 2001. Em 2007, Ian Wilmut, biólogo do Instituto Roslin (Escócia) que liderou a equipe que criou Dolly, chegou a dizer que a técnica usada com ela talvez nunca fosse eficiente para uso em humanos.

Muitas teorias da conspiração sugerem que clones humanos chegaram a ser criados, mas nunca revelados. Isso estaria em linha com a ideia de Hinton da execução pelo prazer do desafio técnico.

Ainda que tenha se materializado, a pesquisa de clones humanos não foi para frente. E o que impediu não foi qualquer legislação: foi a ética! A sociedade simplesmente não aceitava aquilo.

“A ética da inteligência artificial tem que funcionar mais ou menos como a da biologia, tem que ter uma trava”, afirma Lucia Santaella, professora-titular da PUC-SP. “Se não os filmes de ficção científica vão acabar se realizando.”

 

A verdade irrelevante

Outro ponto destacado por Hinton que me chamou a atenção é sua preocupação com que a inteligência artificial passe a produzir conteúdos tão críveis, que as pessoas não sejam mais capazes de distinguir entre o que é real e o que é falso.

Ela é legítima! Já em 2016, o Dicionário Oxford escolheu “pós-verdade” como sua “palavra do ano”. Muito antes da IA generativa e quando as fake news ainda engatinhavam, esse verbete da renomada publicação alertava para “circunstâncias nas quais os fatos objetivos são menos influentes na opinião pública do que as emoções e as crenças pessoais”. De lá para cá, isso se intensificou exponencialmente: as pessoas acreditam naquilo que lhes for mais conveniente e confortável. As redes sociais levaram isso às raias da loucura e a IA generativa pode complicar ainda mais esse quadro.

“Não é que a verdade não exista: é que a verdade não mais importa”, acrescenta Santaella. “Esse é o grande problema!”

Ter ferramentas como essas abre incríveis possibilidades, mas também exige um uso responsável e consciente, que muitos não têm. Seu uso descuidado e malicioso pode ofuscar os benefícios da inteligência artificial, transformando-a em um mecanismo nefasto de controle e de desinformação, a exemplo do que foi feito com as redes sociais. E vejam como isso está destruindo a sociedade!

Se nenhum limite for imposto, as empresas desenvolvedoras da IA farão o mesmo que fizeram com as redes sociais. É uma corrida em que ninguém quer ficar para trás, pois o vencedor dominará o mundo! Para tornar a situação mais dramática, não se trata apenas de uma disputa entre companhias, mas entre nações. Ou alguém acha que a China está parada diante disso tudo?

Eu jamais serei contra o desenvolvimento de novas tecnologias. Vejo a inteligência artificial como uma ferramenta fabulosa, que pode trazer benefícios imensos. Da mesma forma, sou um entusiasta do meio digital, incluindo nele as redes sociais.

Ainda assim, não podemos viver um vale-tudo em nenhuma delas, seja clonagem, IA ou plataformas digitais. Apesar das críticas ao “PL das Fake News” criadas e popularizadas pela desinformação política e resistência feroz das “big techs” (as verdadeiras prejudicadas pela proposta), ele oferece uma visão equilibrada de como usar bem as redes sociais. Mas para isso, essas empresas precisam se empenhar muito mais, inclusive agindo de forma ética com o negócio que elas mesmas criaram.

Não percamos o foco no que nos torna humanos, nem a capacidade de distinguir verdade de mentira. Só assim continuaremos evoluindo como sociedade e desenvolveremos novas e incríveis tecnologias.

Nesse sentido, o antigo lema do Google era ótimo: “don’t be evil” (“não seja mal”). Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

Bem, a coisa certa é justamente não ser mal.