desinformação

IA pode ser usada na eleição, mas seguindo regras para evitar fake news - Ilustração: Paulo Silvestre com Freepik/Creative Commons

Regras para IA nas eleições são positivas, mas criminosos não costumam seguir a lei

By | Tecnologia | No Comments

A tecnologia volta a ser protagonista na política, e não dá para ignorar isso em um mundo tão digital. Na terça, o Tribunal Superior Eleitoral (TSE) aprovou instruções para o pleito municipal desse ano. Os usos de redes sociais e inteligência artificial nas campanhas chamaram atenção. Mas apesar de positivas e bem-produzidas, elas não dizem como identificar e punir a totalidade de crimes eleitorais no ciberespaço, que só aumentam. Enquanto isso, a tecnologia continua favorecendo os criminosos.

Claro que a medida gerou uma polêmica instantânea! Desde 2018, as eleições brasileiras vêm crescentemente sendo decididas com forte influência do que se vê nas redes sociais, especialmente as fake news, que racharam a sociedade brasileira ao meio. Agora a inteligência artificial pode ampliar a insana polarização que elege candidatos com poucas propostas e muito ódio no discurso.

É importante que fique claro que as novas regras não impedem o uso de redes sociais ou de inteligência artificial. Seria insensato bloquear tecnologias que permeiam nossa vida e podem ajudar a melhorar a qualidade e a baratear as campanhas, o que é bem-vindo, especialmente para candidatos mais pobres. Mas não podemos ser inocentes e achar que os políticos farão apenas usos positivos de tanto poder em suas mãos.

Infelizmente a solução para essas más práticas do mundo digital não acontecerá apenas com regulamentos. Esse é também um dilema tecnológico e as plataformas digitais precisam se envolver com seriedade nesse esforço.


Veja esse artigo em vídeo:


A iniciativa do TSE não é isolada. A preocupação com o impacto político do meio digital atingiu um pico no mundo em 2024, ano com 83 eleições ao redor do globo, a maior concentração pelos próximos 24 anos. Isso inclui algumas das maiores democracias do mundo, como Índia, Estados Unidos e Brasil, o que fará com que cerca de metade dos eleitores do planeta depositem seus votos até dezembro.

As regras do TSE procuram ajudar o eleitor a se decidir com informações verdadeiras. Por isso, determinam que qualquer texto, áudio, imagem ou vídeo que tenha sido produzido ou manipulado por IA seja claramente identificado como tal. Além disso, proíbem que sejam criados sistemas que simulem conversas entre o eleitor e qualquer pessoa, inclusive o candidato. Vedam ainda as deep fakes, técnica que cria áudios e vídeos falsos que simulam uma pessoa dizendo ou fazendo algo que jamais aconteceu.

Além de não praticar nada disso, candidatos e partidos deverão denunciar fraudes à Justiça Eleitoral. As plataformas digitais, por sua vez, deverão agir por conta própria, sem receberem ordens judiciais, identificando e removendo conteúdos que claramente sejam falsos, antidemocráticos ou incitem ódio, racismo ou outros crimes. Se não fizerem isso, as empresas podem ser punidas. Candidatos que infringirem as regras podem ter a candidatura e o mandato cassados (no caso de já terem sido eleitos).

Outra inovação é equiparar as redes sociais aos meios de comunicação tradicionais, como jornal, rádio e TV, aplicando a elas as mesmas regras. Alguns especialistas temem que esse conjunto de medidas faça com que as plataformas digitais exagerem nas restrições, eliminando conteúdos a princípio legítimos, por temor a punições. E há ainda o interminável debate se elas seriam capazes de identificar todos os conteúdos problemáticos de maneira automática.

Os desenvolvedores estão se mexendo, especialmente por pressões semelhantes que sofrem nos Estados Unidos e na União Europeia. Em janeiro, 20 empresas de tecnologia assinaram um compromisso voluntário para ajudar a evitar que a IA atrapalhe nos pleitos. A OpenAI, criadora do ChatGPT, e o Google, dono do concorrente Gemini, anunciaram que estão ajustando suas plataformas para que não atendam a pedidos ligados a eleições. A Meta, dona do Facebook, do Instagram e do WhatsApp, disse que está refinando técnicas para identificar e rotular conteúdos criados ou modificados por inteligência artificial.

Tudo isso é necessário e espero que não se resuma apenas a “cortinas de fumaça” ou “leis para inglês ver”. Mas resta descobrir como fiscalizar as ações da parte ao mesmo tempo mais frágil e mais difícil de ser verificada: o usuário.

 

Ajudando o adversário a se enforcar

Por mais que os políticos e as big techs façam tudo que puderem para um bom uso desses recursos, o maior desafio recai sobre os cidadãos, seja um engajado correligionário (instruído ou não pelas campanhas), seja um inocente “tio do Zap”. Esses indivíduos podem produzir e distribuir grande quantidade de conteúdo incendiário e escapar da visão do TSE. Pior ainda: podem criar publicações ilegais como se fossem o adversário deliberadamente para que ele seja punido.

O tribunal não quer que se repita aqui o que foi visto na eleição presidencial argentina, em novembro. Lá as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para denegrir a imagens dos adversários.

Em outro caso internacional, os moradores de New Hampshire (EUA) receberam ligações de um robô com a voz do presidente Joe Biden dizendo para que não votassem nas primárias do Estado, no mês passado. Por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, circulou em dezembro com ofensas contra professores. Os dois casos eram falsos.

Esse é um “jogo de gato e rato”, pois a tecnologia evolui muito mais rapidamente que a legislação, e os criminosos se valem disso. Mas o gato tem que se mexer!

Aqueles que se beneficiam desses crimes são os que buscam confundir a população. Seu discurso tenta rotular essas regras como cerceamento da liberdade de expressão. Isso não é verdade, pois todos podem continuar dizendo o que quiserem. Apenas pagarão no caso de cometerem crimes que sempre foram claramente tipificados.

Há ainda o temor dessas medidas atrapalharem a inovação, o que também é questionável. Alguns setores fortemente regulados, como o farmacêutico e o automobilístico, estão entre os mais inovadores. Por outro lado, produtos reconhecidamente nocivos devem ser coibidos, como os da indústria do cigarro.

A inteligência artificial vem eliminando a fronteira entre conteúdos verdadeiros e falsos. Não se pode achar que os cidadãos (até especialistas) consigam identificar mentiras tão bem-criadas, mesmo impactando decisivamente seu futuro. E as big techs reconhecidamente fazem menos do que poderiam e deveriam para se evitar isso.

Ausência de regras não torna uma sociedade livre, mas anárquica. A verdadeira liberdade vem de termos acesso a informações confiáveis que nos ajudem a fazer as melhores escolhas para uma sociedade melhor e mais justa para todos.

Ao invés de atrapalhar, a tecnologia deve nos ajudar nessa tarefa. E ela pode fazer isso!

 

Criada por IA, Ren Xiaorong é a âncora do telejornal “Diário do Povo”, controlado pelo governo chinês - Foto: reprodução

IA agora produz e publica notícias, aumentando os riscos de desinformação

By | Jornalismo, Tecnologia | No Comments

O que você sentiria se o presidente da República telefonasse a você para lhe convencer de algo? Ou se alguém bem próximo, como um sobrinho ou até um filho, enviasse um áudio pedindo dinheiro? Muita gente desconfiaria que se trata de um golpe. Mas o rápido avanço da inteligência artificial está tornando esse tipo de engodo cada vez mais crível, fazendo vítimas em todos os estratos sociais.

Portanto, cuidado ao gritar que jamais cairá em algo assim. Por muito menos, todo mundo já acreditou em alguma fake news!

A ameaça cresce quando se observa que o uso da IA vai muito além da produção de textos, áudios e vídeos bem-feitos. Os robôs agora constroem sequências de notícias falsas sobre temas que lhes forem solicitados. Além disso, eles as distribuem de maneiras cada vez mais criativas, até como se fossem jornalistas humanos.

Não por acaso, em janeiro, o Fórum Econômico Mundial apontou a desinformação potencializada pela inteligência artificial como o maior risco que a humanidade enfrentará nos próximos anos.

As big techs, responsáveis pela criação dessas plataformas, estão se mexendo. No mesmo Fórum, Nick Clegg, presidente de assuntos globais da Meta (dona do Facebook, Instagram e WhatsApp), anunciou que a empresa está trabalhando com os principais nomes do setor para criar mecanismos que identifiquem claramente que um conteúdo foi sintetizado por IA. O executivo classificou a iniciativa como “a tarefa mais urgente” da indústria tecnológica atualmente.

Já passamos há anos do ponto em que as versões ficaram mais “importantes” para o público que os fatos, e falhamos miseravelmente no combate a isso, com consequências desastrosas. Nesse ano, com mais de 2 bilhões de pessoas votando em 58 países, o desafio de todos passa a ser não apenas resgatar o valor da verdade, como também serem capazes de identificá-la.


Veja esse artigo em vídeo:


Isso já acontece, inclusive onde estão as sedes das big techs: os EUA. O país começou 2024 com a polarização nas alturas pela eleição presidencial em novembro, que deve colocar novamente o atual presidente, Joe Biden, frente a seu antecessor, Donald Trump. O primeiro já vem sendo vítima de vídeos falsos desde o ano passado.

Recentemente, eleitores do Estado de New Hampshire receberam telefonemas com a voz de Biden enganando-os para não votarem na eleição primária local. Isso fez com que o governo proibisse o uso de IA para simular vozes em ligações automáticas no país.

Legislações costumam chegar atrasadas e muitas vezes são ineficientes, diante da velocidade da inovação. O debate sobre regulamentar redes sociais e agora a inteligência artificial vem deixando claro que se focar nas tecnologias é infrutífero, devendo se concentrar na responsabilização dos desenvolvedores e dos usuários que usam esses recursos indevidamente.

O grande problema é que, com ou sem regras claras, os vilões –sejam empresas ou usuários– continuam fazendo o que bem entendem para garantir seus lucros ou outros objetivos. A IA deve facilitar esse processo ainda mais, e eles sabem disso.

A imprensa historicamente desempenha o papel de proteger a sociedade desse tipo de abuso, mas ela própria vem sendo impactada pela inteligência artificial, seja em seus próprios processos, seja na concorrência de “pseudojornalistas digitais” que tentam enganar o público.

O Reuters Institute divulgou em janeiro um detalhado estudo sobre as perspectivas para esse ano sobre jornalismo, mídia e tecnologia. O documento reconhece esses desafios, destacando que a maioria do conteúdo na Internet será produzido por IA já em 2026. Segundo os pesquisadores, isso exige que jornalistas e empresas noticiosas repensem seu papel e propósito urgentemente.

 

“Jornalistas sintéticos”

Essas empresas já observam queda na sua audiência vinda de redes sociais, que passaram a privilegiar criadores no estilo TikTok ao invés de jornalismo, pois isso lhes favorece. O desafio do jornalismo aumenta com o crescimento das “Experiências Generativas de Busca”, um recurso de buscadores como Google e Bing, em que a IA generativa redige parágrafos que explicam brevemente o que o usuário procura. Com isso, ele não precisa mais visitar as páginas de onde as informações foram tiradas.

Em outras palavras, os veículos de comunicação alimentam essas plataformas e não ganham nem mesmo a visita do usuário em troca. É quase como se cada um de nós agora tivesse um “jornalista sintético” a nossa disposição para nos explicar qualquer assunto.

Parece ótimo, mas isso embute um risco enorme: esses parágrafos podem misturar alegremente informações jornalísticas de qualidade com fake news bizarras. Portanto, podem se converter em poderosas ferramentas de desinformação, além de achatar a audiência dos veículos de comunicação.

Pesquisadores acreditam que, nesse ano, plataformas de inteligência artificial também passem a produzir grandes volumes de desinformação, não mais dependendo de comando individuais, mas seguindo diretrizes mais amplas. Como a publicação é automática, isso pode inundar as redes sociais com informações falsas, que soterrariam o conteúdo jornalístico diante dos algoritmos. Além disso, países como China e até Venezuela já usam avatares ultrarrealistas que se passam por jornalistas humanos e despudoradamente leem notícias que lhes forem ordenadas.

O relatório do Reuters Institute indica que as empresas de comunicação pretendem reforçar o contato direto com seu público, em detrimento das plataformas digitais. Mas isso pode afastá-las ainda mais de sua audiência mais jovem e menos instruída, que se sente satisfeita com as notícias geradas por IA.

A inteligência artificial é uma ferramenta fabulosa e estamos em um caminho sem volta para sua adoção em todos os setores da economia, inclusive na comunicação. Apesar de todos esses desafios, ela também oferece muitos ganhos ao jornalismo, se bem usada.

O risco a que todos nós –e não apenas jornalistas– temos que estar atentos é a possibilidade de decisões básicas da sociedade civil, como em quem votar, sejam sequestradas por robôs sem ética. As empresas de comunicação não podem repetir com a IA o erro que cometeram ao desprezar o poder das redes sociais, quando ainda estavam começando. Precisam compreender e se apropriar dessa tecnologia, e ajudar toda a sociedade a fazer o mesmo.

Caso contrário, seremos cada vez mais cidadãos teleguiados.

 

Taylor Swift e suas cópias, que podem ser geradas por IA para convencer as pessoas - Foto: Paulo Silvestre com Creative Commons

Pessoas se tornam vítimas de bandidos por acreditarem no que desejam

By | Tecnologia | No Comments

Usar famosos para vender qualquer coisa sempre foi um recurso poderoso do marketing. Mas agora as imagens e as vozes dessas pessoas estão sendo usadas sem sua permissão ou seu conhecimento para promover produtos que eles jamais endossariam e sem que ganhem nada com isso.

Esse conteúdo falso é criado por inteligência artificial e está cada vez mais convincente. Além de anunciar todo tipo de quinquilharia, esses “deep fakes”, como é conhecida essa técnica, podem ser usados para convencer as massas muito além da venda de produtos, envolvendo aspectos políticos e até para se destruir reputações.

O processo todo fica ainda mais eficiente porque as pessoas acreditam mais naquilo que desejam, seja em uma “pílula milagrosa de emagrecimento” ou nas ideias insanas de seu “político de estimação”. Portanto, os bandidos usam os algoritmos das redes sociais para direcionar o conteúdo falso para quem gostaria que aquilo fosse verdade.

Há um outro aspecto mais sério: cresce também o uso de deep fakes de pessoas anônimas para a aplicação de golpes em amigos e familiares. Afinal, é mais fácil acreditar em alguém conhecido. Esse recurso também é usado por desafetos, por exemplo criando e distribuindo imagens pornográficas falsas de suas vítimas.


Veja esse artigo em vídeo:


As redes sociais, que são os maiores vetores da desinformação, agora se deparam sob pressão com o desafio de identificar esse conteúdo falso criado por IA para prejudicar outras pessoas. Mas seus termos de uso e até alguns de seus recursos tornam essa tarefa mais complexa que as dificuldades inerentes da tecnologia.

Por exemplo, redes como TikTok e Instagram oferecem filtros com inteligência artificial para que seus usuários alterem (e supostamente “melhorem”) suas próprias imagens, uma distorção da realidade que especialistas afirmam criar problemas de autoestima, principalmente entre adolescentes. Além disso, muitas dessas plataformas permitem deep fakes em algumas situações, como paródias. Isso pode tornar esse controle ainda mais difícil, pois uma mentira, uma desinformação, um discurso de ódio pode se esconder subliminarmente nos limites do aceitável.

O deep fake surgiu em 2017, mas seu uso explodiu nesse ano graças ao barateamento das ferramentas e à melhora de seus resultados. Além disso, algumas dessas plataformas passaram a convincentemente simular a voz e o jeito de falar de celebridades. Também aprendem o estilo de qualquer pessoa, para “colocar na sua boca” qualquer coisa. Basta treiná-las com alguns minutos de áudio do indivíduo. O “pacote da enganação” se completa com ferramentas que geram imagens e vídeos falsos. Na prática, é possível simular qualquer pessoa falando e fazendo de tudo!

A complexidade do problema cresce ao transcender as simulações grosseiras e óbvias. Mesmo a pessoa mais ingênua pode não acreditar ao ver um vídeo de uma celebridade de grande reputação destilando insanidades. Por isso, o problema maior não reside em um “fake” dizendo um absurdo, mas ao falar algo que o “original” poderia ter dito, mas não disse. E nessa zona cinzenta atuam os criminosos.

Um exemplo pôde ser visto na terça passada (5), quando o apresentador esportivo Galvão Bueno, 73, precisou usar suas redes sociais para denunciar um vídeo com uma voz que parecia ser a sua insultando Ednaldo Rodrigues, presidente da Confederação Brasileira de Futebol (CBF). “Fizeram uma montagem com coisas que eu nunca disse e eu nunca diria”, disse Galvão em sua defesa.

Ele não disse mesmo aquilo, mas poucos estranhariam se tivesse dito! Duas semanas antes, após a derrota da seleção brasileira para a argentina nas eliminatórias da Copa do Mundo, o apresentador fez duras críticas ao mesmo presidente. Vale dizer que há uma guerra pela liderança da CBF, e Rodrigues acabou sendo destituído do cargo no dia 7, pela Justiça do Rio.

 

Ressuscitando os mortos

O deep fake de famosos já gerou um enorme debate no Brasil nesse ano. No dia 3 de julho, um comercial sobre os 70 anos da Volkswagen no país provocou polêmica ao colocar a cantora Elis Regina (morta em 1982) cantando ao lado da filha Maria Rita. Elis aparece no filme dirigindo um antigo modelo de Kombi, enquanto a filha aparece ao volante de uma ID.Buzz, furgão elétrico recém-lançado, chamado de “Nova Kombi”.

Muita gente questionou o uso da imagem de Elis. Mas vale dizer que, nesse caso, os produtores tiveram a autorização da família para o uso de sua imagem. Além disso, ninguém jamais propôs enganar o público para que achasse que Elis estivesse viva.

Outro exemplo aconteceu na recente eleição presidencial argentina. Durante a campanha, surgiram imagens e vídeos dos dois candidatos que foram ao segundo turno fazendo coisas condenáveis. Em um deles, o candidato derrotado, Sergio Massa, aparece cheirando cocaína. Por mais que tenha sido desmentido, ele “viralizou” nas redes e pode ter influenciado o voto de muita gente. Tanto que, no Brasil, o Tribunal Superior Eleitoral (TSE) já se prepara para combater a prática nas eleições municipais de 2024.

Na época do comercial da Volkswagen, conversei sobre o tema com Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, “ficará mais difícil, a olho nu, detectar o que é verdadeiro”, restando aos peritos identificar as falsificações. “O desafio, daqui para frente, é que será mais comum ver esse tipo de debate na Justiça”, acrescentou.

Essa é uma preocupação mundial. As fake news mais eficientes não escancaram uma informação falsa “completa”. Ao invés disso, o conceito que pretendem impor é apresentado aos poucos, em pequenos elementos aparentemente desconexos, mas criteriosamente entregues, para que a pessoa conclua “sozinha” o que os criminosos querem. Quando isso acontece, fica difícil convencê-la do contrário.

Não há clareza sobre como resolver esse problema. Os especialistas sugerem que exista algum tipo de regulamentação, mas ela precisa equilibrar a liberdade para se inovar e a garantia dos interesses da sociedade. Sem isso, podemos ver uma enorme ampliação da tragédia das fake news, construída por redes sociais que continuam não sendo responsabilizadas por disseminá-las.

Como determina a Constituição, todos podem dizer o que quiserem, mas respondem por isso. O desafio agora é que não se sabe mais se a pessoa disse o que parece ter dito de maneira cristalina diante de nossos olhos e ouvidos.

 

Graças à IA em novos celulares, qualquer um poderá alterar profundamente suas fotos - Foto: Akshay Gupta/Creative Commons

Celulares podem se tornar máquinas de distorcer a realidade

By | Tecnologia | No Comments

Quando a fotografia foi inventada, no século XIX, ela revolucionou o mundo por conseguir reproduzir facilmente a realidade. De lá para cá, ela só melhorou, culminando na fotografia digital, que transformou um hobby caro em uma diversão extremamente popular, consolidada com as câmeras cada vez mais poderosas nos celulares. Mas agora esses equipamentos podem ironicamente subverter a característica essencial da fotografia de retratar a realidade com precisão.

A culpa disso recai sobre a inteligência artificial. Ela já está presente há algum tempo nos softwares de captura e edição de imagens dos melhores celulares. Mas, até então, prestava-se a “melhorar” (note as aspas) as fotografias, usando técnicas para aumentar a sua fidelidade e refinar elementos como cores, brilho e contraste.

Isso começa a mudar agora, com o lançamento nos EUA, no dia 11, do Pixel 8 (sem previsão de chegada ao Brasil). O smartphone de US$ 700 do Google consegue efetivamente alterar a realidade fotografada. Isso quer dizer que, com ele, é possível, por exemplo, eliminar pessoas e objetos das fotos, alterar elementos das imagens ou modificar suas posições e até “melhorar” (de novo, com aspas) o rosto de pessoas combinando com a maneira que elas apareceram em outras fotos.

Como em todas as atuais plataformas baseadas na inteligência artificial generativa, alguns resultados dessas edições são decepcionantes e até grotescos. Outros, porém, ficam incrivelmente convincentes!

Já dizia São Tomé: “preciso ver para crer”. Parábolas à parte, é um fato que somos seres visuais: nosso cérebro tende a assumir como real o que está diante de nossos olhos. Por isso, vale perguntar até que ponto é positivo e até saudável dar a possibilidade de se distorcer a realidade de maneira tão simples.


Veja esse artigo em vídeo:


É curioso que a fotografia foi combatida por muitos quando surgiu, justamente pela sua capacidade de reproduzir, de maneira fácil, rápida e precisa, o mundo. Pintores diziam que o invento era algo grosseiro, que eliminava a subjetividade e a técnica dos artistas quando retratavam pessoas e paisagens. Grupos religiosos também a combatiam, por serem contrários à captura de imagens de “coisas feitas por Deus”.

Em 1826, o francês Joseph Nicéphore Niépce registrou seu quintal em uma placa de estanho revestida de betume, usando uma câmera escura por oito horas. Essa é considerada a primeira fotografia permanente. Três anos depois, ele fez um acordo com outro francês, Louis Jacques Mandé Daguerre, que aperfeiçoou o processo com o daguerreótipo, que precisava de “apenas” 30 segundos para fazer uma fotografia.

A patente do daguerreótipo foi vendida ao Estado francês em 1839, que a colocou em domínio público. Isso permitiu que a fotografia experimentasse grandes avanços ao redor do mundo. Provavelmente a empresa mais inovadora do setor foi criada pelo americano George Eastman em 1888: a Kodak. Entre suas contribuições, estão o rolo de filme (1889), a primeira câmera de bolso (1912) e o filme colorido moderno (1935).

O último grande invento da Kodak foi a fotografia digital, em 1975. Mas como os lucros da empresa dependiam da venda de filmes, seus executivos não deram importância a ela. Foi um erro fatal, pois a tecnologia se tornou incrivelmente popular e, quando a empresa decidiu olhar para ela, as japonesas já dominavam o mercado.

Em 1999, foi lançado o Kyocera VP-210, o primeiro celular com câmera capaz de tirar fotos, que tinham resolução de 0,11 megapixel (o iPhone 15 tira fotos de 48 megapixels). E isso nos traz de volta ao dilema atual.

 

Realidade alternativa

As fotografias nos celulares se tornaram tão realistas e detalhadas que o próprio negócio de câmeras fotográficas entrou em colapso. Elas continuam existindo, mas hoje praticamente só profissionais as utilizam, pois sabem como aproveitar todos os recursos daqueles equipamentos para fotografias realmente diferenciadas.

Os recursos de IA do Pixel 8 fazem parte de uma nova versão do Google Fotos, o aplicativo de edição e publicação de fotos da empresa, que é nativo nos smartphones Android, mas também pode ser baixado para iPhones. Isso significa que, em tese, outros aparelhos poderão ganhar esses recursos em breve, desde que, claro, tenham capacidade de processamento para isso.

A alteração de fotografias sempre existiu, mesmo antes dos softwares de edição de imagem. Entretanto fazer isso era difícil, exigindo equipamentos e programas caros e muita habilidade técnica. Além disso, as fotos editadas eram apresentadas como tal, sem a pretensão de levar quem as visse a acreditar que fossem reais (salvo exceções, claro)..

O que se propõe agora é que isso seja feito de maneira muito fácil, por qualquer pessoa, sem nenhum custo adicional e em equipamentos vendidos aos milhões. Isso levanta algumas questões éticas.

A primeira delas é que as pessoas podem passar a se tornar intolerantes com a própria realidade. O mundo deixaria de ser o que é, para ser o que gostariam. Isso é perigosíssimo como ferramenta para enganarem outros indivíduos e até a si mesmas.

A sociedade já experimenta, há anos, um crescimento de problemas de saúde mental, especialmente entre adolescentes, devido a fotos de colegas com corpos “perfeitos” (pela terceira vez, as aspas). Isso acontece graças a filtros com inteligência artificial em redes sociais, especialmente Instagram e TikTok, que fazem coisas como afinar o nariz, engrossar os lábios, diminuir os quadris e alterar a cor da pele. O que se observa mais recentemente são adolescentes insatisfeitos com seus corpos não pelo que veem em amigos, mas pelo que veem em suas próprias versões digitais.

Há um outro aspecto que precisa ser considerado nesses recursos de alteração de imagens, que são os processos de desinformação. Muito provavelmente veremos grupos que já se beneficiam das fake news usando intensamente essa facilidade para convencer seu público com mentiras cada vez mais críveis.

Hoje esses recursos ainda estão toscos demais para um convencimento completo. Mas é uma questão de pouco tempo até que eles se aproximem da perfeição.

Não tenham dúvidas: quando estiver disponível, as pessoas usarão intensamente essa tecnologia, estando imbuídas de boas intensões ou de outras não tão nobres assim. Quem será responsabilizado quando começarem a surgir problemas disso?

Assim como acontece com as redes sociais, as desenvolvedoras se furtam disso, dizendo que apenas oferecem um bom recurso, e as pessoas que fazem maus usos deles. Em tese, isso é verdade. Mas alegar inocência dessa forma chega a ser indecente! É como entregar uma arma carregada na mão de uma criança e torcer para que nada de ruim aconteça.

Chegamos ao mundo em que a ilusão se sobrepõe à realidade, mas não estamos prontos para lidar com isso.

 

Mãe beija criança na Faixa de Gaza, de onde saíram os ataques terroristas do Hamas - Foto: Libertinus/Creative Commons

Mais que mísseis, bombas e balas, a guerra hoje é feita também com imagens, palavras e versões odiosas

By | Jornalismo | No Comments

Desde o dia 7, o mundo assiste horrorizado à mais recente escalada da violência em Israel e na Palestina, deflagrada pelo ataque dos terroristas do Hamas, que cobrou milhares vidas dos dois lados até agora. Mas esse conflito não está acontecendo apenas na região da Faixa de Gaza: ele invadiu o mundo todo a partir das redes sociais, em uma guerra de versões recheada de palavras e imagens aterrorizantes.

Isso vem servindo de munição para grupos políticos e ideológicos que inescrupulosamente usurpam a barbárie para impor sua visão de mundo. Essas mensagens invadem nossas vidas a partir de computadores e celulares, inflamando pessoas que sequer entendem o que está acontecendo no Oriente Médio. Isso aumenta ainda mais a dor daquele confronto interminável, movido pelo ódio e pela intolerância dos radicais de ambos os lados.

Guerras não são ganhas apenas no campo de batalha: os vencedores também precisam conquistar corações e mentes da opinião pública. Desde a Primeira Guerra Mundial, isso vem acontecendo de maneira cada vez mais intensa e rápida, com o avanço da imprensa e da tecnologia. Mas a também horrenda invasão russa na Ucrânia inaugurou um novo tipo de “cobertura”, feita diretamente do front por combatentes, assim como pela população civil, com seus celulares. A fase atual do conflito israelo-palestino cristalizou isso.

Nesse fogo-cruzado ideológico e digital, as pessoas são praticamente forçadas a escolher um lado. Como palestinos e israelenses possuem seus argumentos, é importante desqualificar o inimigo, para angariar a simpatia internacional. Mas como a maioria da população não tem acesso a informações confiáveis e equilibradas, o que poderia ser um debate construtivo em busca da paz se torna uma arena de insultos.

Aqui o conflito não faz mortos como lá, mas o tecido social fica esgarçado pela ignorância!


Veja esse artigo em vídeo:


Um triste exemplo aconteceu na terça passada (10), em um debate sobre as causas do conflito, organizado pelo Instituto de Relações Internacionais da PUC-RJ. Mediado pela professora Monica Herz, ele reuniu Márcio Scalercio, docente do departamento, Nizar Messari, da Al Akhawayn University (Marrocos), e Michel Gherman, pesquisador da UFRJ, do centro de estudos de Sionismo e Israel da Universidade Ben Gurion do Negev, e do Centro Vital Sasson de Estudos do Antissemitismo da Universidade Hebraica de Jerusalém, além de coordenador acadêmico do Instituto Israel-Brasil.

Em sua fala, Gherman, condenou veementemente o ataque do Hamas como um ato terrorista. Tentou explicar as consequências nefastas disso aos próprios palestinos e expôs a necessidade de negociação com a Autoridade Nacional Palestina. Por isso, foi agredido por um grupo de alunos, que o acusavam de ser simpático ao Hamas e –pasmem– de ser antissemita.

Diante da impossibilidade de continuar sua fala, Gherman deixou o evento. “Eu vou embora, vocês ganharam”, disse ao sair. Apesar dos protestos de Herz pelo ocorrido, o debate virou um Fla-Flu ideológico entre os alunos.

O “pecado” de Gherman foi não ter destilado um ódio visceral contra o Hamas, apesar de ter deixado bastante claro que classificava o grupo como terrorista. Mas para a turma cega pelo ódio, qualquer um que não se comporte dessa forma deve ser silenciado. As vozes do bom-senso não lhes servem de espelho e pertencem ao “inimigo”.

É nessas horas que os estilhaços da guerra atingem o mundo todo. Quando perdemos a capacidade de dialogar civilizadamente com quem pensa de maneira diferente, o terror ameaça sociedades que suas bombas não conseguem atingir.

 

Streaming de terror

A imprensa profissional filtra o que publica, evitando fake news e conteúdos demasiadamente brutais, que visam aumentar o ódio até daqueles que mal entendem o que está acontecendo. As redes sociais, por outro lado, servem como gigantescos dutos descontrolados e se prestam à polarização irracional.

A ONU (Organização das Nações Unidas) declarou ter “claras evidências” de crimes de guerra e uma enorme quantidade de relatos de mortes de civis por grupos armados dos dois lados, que as propagandeiam pelas plataformas digitais. Eles buscam colher apoio para seus atos e aterrorizar a população do inimigo. E crianças e jovens acabam sendo bombardeados por isso, sem o mínimo preparo para lidar com tanto terror, servindo para depois engrossarem as fileiras da intolerância de todo tipo.

Os terroristas digitais são muito mais rápidos e numerosos que a imprensa. Além disso, como não têm nenhum compromisso com a verdade, usam não apenas imagens reais da guerra, como também conteúdo fora do contexto e ainda material gerado por inteligência artificial. A partir disso, aqueles que se identificam cegamente com qualquer dos lados se encarregam de espalhar o terror, seja verdadeiro ou falso.

Extremistas dos dois lados esperam exatamente que isso aconteça e seja normalizado, a ponto de ser apoiado. Isso não pode acontecer, pois cada grupo busca reescrever a história que ainda está sendo vivida, mas com suas ideias!

Não haverá paz enquanto extremistas dominarem os opostos no conflito. Para eles, massacres dos dois lados da fronteira servem para reforçar suas posições, entrincheirando-se no poder. Talvez essa seja a maior aberração dessa barbárie.

Nessa guerra em que a ideologia mata tanto quanto tiros, as imagens perderam sua capacidade de retratar a verdade. Pelo contrário, elas só mostram aquilo que quem as postou deseja impor. E por isso não é nenhuma surpresa ver a imprensa profissional sendo alvejada pelos mesmos grupos, por insistir em não apenas trazer os fatos, mas explicá-los para todo mundo, especialmente para quem sempre achou a crise entre palestinos e israelenses algo incompreensível, distante e desimportante.

O terrorismo não pode ser normalizado, relativizado ou aceito. Da mesma forma, o extremismo é o grande inimigo da paz, pois ele não ouve a voz do outro ou sequer aceita sua existência.

Quanto a cada um de nós, no conforto de nossas telas, precisamos entender que a vida não é binária. As pessoas não podem escolher um lado do conflito como quem decide para qual time torcerá, especialmente quando sua própria equipe foi desclassificada. Sabemos que a intolerância mata até nas torcidas organizadas.

 

Mark Zuckerberg, CEO da Meta: redes sociais entraram na briga contra o “PL das Fake News” - Foto: Anthony Quintano / Creative Commons

O poder das redes antissociais

By | Tecnologia | No Comments

No começo, as redes sociais eram espaços divertidos, para encontrarmos antigos amigos e conhecer gente nova. Eram os bons tempos do Orkut, do MySpace e do Friendster. O próprio Facebook surgiu em 2004 como um simples diretório de alunos da Universidade de Harvard. Mas isso mudou na última década, e essas redes têm ficado cada vez menos sociais.

No lugar dos conteúdos inocentes de amigos e de familiares, as páginas dessas plataformas foram tomadas de publicidade, publicações de influenciadores e conteúdo de interesse das próprias empresas. Os feeds, que prendem nossa atenção, se transformaram em ferramentas de convencimento fabulosas, que nos induzem desde comprar todo tipo de quinquilharia até em quem votar. O espaço social deu lugar à máquina publicitária mais eficiente já criada.

A redução no aspecto social teve um custo para usuários e para as próprias redes.

Há semanas, o Brasil vem debatendo o Projeto de Lei 2.630/20, apelidado de “PL das Fake News”, que busca regulamentar essas plataformas. E agora elas entraram de sola na briga, combatendo explicitamente a proposta em suas páginas.

Não é de se espantar: são elas as mais impactadas pelo projeto, e não os usuários, os negócios, as igrejas ou mesmo os políticos. As redes, cada vez mais poderosas e menos sociais, não podem mais se eximir de suas responsabilidades, e precisarão fazer muito mais que atualmente para a manutenção saudável da sociedade.


Veja esse artigo em vídeo:


Nada disso chega a ser novo, mas a magnitude do espaço que ocupa em nossas vidas tornou-se alarmante. Como disse o professor da Universidade de Yale Edward Tufte, no documentário “O Dilema das Redes” (Netflix, 2020), “existem apenas duas indústrias que chamam seus clientes de usuários: a de drogas e a de software”.

Algumas pessoas questionam o aumento desse poder em detrimento dos aspectos sociais. Isso vem provocando sangrias de usuários desencantados. Por isso, essas empresas também são prejudicadas, pois os usuários acabam migrando para plataformas menores e nichadas, onde o aspecto social ainda é relevante. Com isso, o sonho megalomaníaco de moguls como Mark Zuckerberg e Elon Musk de ter uma plataforma onde todos fariam de tudo, fica cada vez mais distante.

“Não é do interesse das redes sociais mudarem o formato de como operam e muito menos abrirem as caixas pretas com algoritmos”, explica Magaly Prado, pesquisadora do Instituto de Estudos Avançados da Universidade de São Paulo. “É notório verificar o espalhamento desenfreado de assuntos polêmicos e, principalmente, quando sacodem emoções.”

Isso explica atitudes como as vistas nos últimos dias, como quando o Google colocou um link para defender sua posição contrária à regulamentação na sua página de entrada, ou quando o Telegram enviou uma mensagem para todos seus usuários no Brasil, com o mesmo fim. Para fazer valer seu ponto de vista, não economizaram em afirmações falsas ou distorcidas. No caso do último, ainda carregou em frases de efeito e falsas, como dizer que “a democracia está sob ataque no Brasil”, que “a lei matará a Internet moderna” ou que “concede poderes de censura ao governo”.

Essas iniciativas provocaram reações no mundo político, jurídico e empresarial. A própria Meta, dona do Facebook, Instagram e WhatsApp, correu para dizer que não concordava com as afirmações do Telegram.

 

Abuso de poder?

Muitos argumentaram que essas atitudes das plataformas digitais poderiam ser consideradas “abuso de poder econômico”, pela enorme penetração que essas empresas têm na sociedade e pelo poder de convencimento de seus algoritmos. Apesar disso, juridicamente não se pode sustentar isso.

“O abuso de poder econômico pode ser resumido como a situação em que uma entidade dominante em um setor empresarial viola as regras da concorrência livre, impedindo que seus concorrentes, sejam eles diretos ou indiretos, conduzam seus negócios”, explica Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, as iniciativas do Google e do Telegram não se enquadram nisso. “Diferente seria se houvesse uma manipulação algorítmica que privilegiasse conteúdo alinhado com seu posicionamento, em detrimento de posições contrárias”, contrapõe.

De toda forma, esses episódios podem ser educativos. Eles ilustram muito bem o poder que as plataformas digitais desenvolveram, a ponto de se contrapor a governos eleitos e de jogar parte da população contra eles.

Ninguém ganha nada com isso!

“As redes perdem ao entulhar o feed dos internautas com mensagens falsas de interesses escusos, fugindo da ideia da Internet em unir as pessoas em uma esfera de sociabilidade e troca de saberes”, afirma Prado. De certa forma, leis como o “PL das Fake News” ao redor do mundo, como da União Europeia, China e Austrália, são reações aos descuidos com os aspectos sociais pelas plataformas, com a explosão das fake news, do discurso de ódio e de outros crimes nesses ambientes. Se essas empresas tivessem levado mais a sério esses cuidados, assim como os aspectos nocivos de seus algoritmos na saúde mental dos usuários, a sociedade não chegaria a essa cisão e talvez nada disso fosse necessário.

Talvez todos possamos aprender algo com a forma como as redes sociais cresceram. A liberdade nos permite criar coisas incríveis, mas ela não nos permite tudo! A liberdade de um termina quando começa a do outro, e o meio digital não se sobrepõe às leis de um país.

Não é um exagero dizer que as redes sociais são um invento que modificou nossas vidas profundamente, abrindo grandes oportunidades de comunicação e exposição. Mas se perderam pelo caminho. Ficaram demasiadamente poderosas, e isso subiu à cabeça de alguns de seus criadores.

Tristemente as grandes plataformas estão se tornando redes antissociais, onde o dinheiro supera os interesses daqueles que viabilizam o negócio: seus usuários. Por mais que não paguem por seus serviços (quem faz isso são os anunciantes), esse e qualquer negócio só prosperam se forem verdadeiramente benéficos a todos os envolvidos. Se a balança se desequilibra, como se vê agora, os clientes sempre encontrarão quem se preocupe de verdade com eles.

 

Ian Wilmut, biólogo do Instituto Roslin (Escócia), e a ovelha Dolly, primeiro clone bem-sucedido de um mamífero - Foto: divulgação

Corrida pela inteligência artificial não pode driblar leis ou ética

By | Tecnologia | No Comments

Diante do acalorado debate em torno do “PL das Fake News”, muita gente nem percebeu que outro projeto de lei, possivelmente tão importante quanto, foi apresentado no dia 3 pelo senador Rodrigo Pacheco (PSD-MG): o PL 2338/23, que propõe a regulação da inteligência artificial. Resta saber se uma lei conseguirá conter abusos dessa corrida tecnológica ou sucumbirá à pressão das empresas, como tem acontecido no combate às fake news.

Talvez um caminho melhor seria submeter o desenvolvimento da IA aos limites da ética, mas, para isso, os envolvidos precisariam guiar-se por ela. Nesse sentido, outro acontecimento da semana passada foi emblemático: a saída do Google de Geoffrey Hinton, conhecido como o “padrinho da IA”. Ele disse que fez isso para poder falar criticamente sobre os caminhos que essa tecnologia está tomando e a disputa sem limites que Google, Microsoft e outras companhias estão travando, o que poderia, segundo ele, criar algo realmente perigoso.

Em entrevista ao The New York Times, o pioneiro da IA chegou a dizer que se arrepende de ter contribuído para esse avanço. “Quando você vê algo que é tecnicamente atraente, você vai em frente e faz”, justificando seu papel nessas pesquisas. Hoje ele percebe que essa visão pode ser um tanto inconsequente.

Mas quantos cientistas e principalmente homens de negócios da “big techs” também têm essa consciência?


Veja esse artigo em vídeo:


Isso me lembrou do início da minha carreira, como repórter de ciência, quando o mundo foi sacudido, em fevereiro de 1997, pelo anúncio da ovelha Dolly, o primeiro mamífero clonado com sucesso. Apesar de sua origem incomum, ela viveu uma vida normal por seis anos, tendo até dado à luz seis filhotes. Depois dela, outros mamíferos foram clonados, como porcos, veados, cavalos, touros e até macacos.

Não demorou para que fosse levantada a questão se seria possível clonar seres humanos. Ela rendeu até a novela global “O Clone”, de Glória Perez, em 2001. Em 2007, Ian Wilmut, biólogo do Instituto Roslin (Escócia) que liderou a equipe que criou Dolly, chegou a dizer que a técnica usada com ela talvez nunca fosse eficiente para uso em humanos.

Muitas teorias da conspiração sugerem que clones humanos chegaram a ser criados, mas nunca revelados. Isso estaria em linha com a ideia de Hinton da execução pelo prazer do desafio técnico.

Ainda que tenha se materializado, a pesquisa de clones humanos não foi para frente. E o que impediu não foi qualquer legislação: foi a ética! A sociedade simplesmente não aceitava aquilo.

“A ética da inteligência artificial tem que funcionar mais ou menos como a da biologia, tem que ter uma trava”, afirma Lucia Santaella, professora-titular da PUC-SP. “Se não os filmes de ficção científica vão acabar se realizando.”

 

A verdade irrelevante

Outro ponto destacado por Hinton que me chamou a atenção é sua preocupação com que a inteligência artificial passe a produzir conteúdos tão críveis, que as pessoas não sejam mais capazes de distinguir entre o que é real e o que é falso.

Ela é legítima! Já em 2016, o Dicionário Oxford escolheu “pós-verdade” como sua “palavra do ano”. Muito antes da IA generativa e quando as fake news ainda engatinhavam, esse verbete da renomada publicação alertava para “circunstâncias nas quais os fatos objetivos são menos influentes na opinião pública do que as emoções e as crenças pessoais”. De lá para cá, isso se intensificou exponencialmente: as pessoas acreditam naquilo que lhes for mais conveniente e confortável. As redes sociais levaram isso às raias da loucura e a IA generativa pode complicar ainda mais esse quadro.

“Não é que a verdade não exista: é que a verdade não mais importa”, acrescenta Santaella. “Esse é o grande problema!”

Ter ferramentas como essas abre incríveis possibilidades, mas também exige um uso responsável e consciente, que muitos não têm. Seu uso descuidado e malicioso pode ofuscar os benefícios da inteligência artificial, transformando-a em um mecanismo nefasto de controle e de desinformação, a exemplo do que foi feito com as redes sociais. E vejam como isso está destruindo a sociedade!

Se nenhum limite for imposto, as empresas desenvolvedoras da IA farão o mesmo que fizeram com as redes sociais. É uma corrida em que ninguém quer ficar para trás, pois o vencedor dominará o mundo! Para tornar a situação mais dramática, não se trata apenas de uma disputa entre companhias, mas entre nações. Ou alguém acha que a China está parada diante disso tudo?

Eu jamais serei contra o desenvolvimento de novas tecnologias. Vejo a inteligência artificial como uma ferramenta fabulosa, que pode trazer benefícios imensos. Da mesma forma, sou um entusiasta do meio digital, incluindo nele as redes sociais.

Ainda assim, não podemos viver um vale-tudo em nenhuma delas, seja clonagem, IA ou plataformas digitais. Apesar das críticas ao “PL das Fake News” criadas e popularizadas pela desinformação política e resistência feroz das “big techs” (as verdadeiras prejudicadas pela proposta), ele oferece uma visão equilibrada de como usar bem as redes sociais. Mas para isso, essas empresas precisam se empenhar muito mais, inclusive agindo de forma ética com o negócio que elas mesmas criaram.

Não percamos o foco no que nos torna humanos, nem a capacidade de distinguir verdade de mentira. Só assim continuaremos evoluindo como sociedade e desenvolveremos novas e incríveis tecnologias.

Nesse sentido, o antigo lema do Google era ótimo: “don’t be evil” (“não seja mal”). Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

Bem, a coisa certa é justamente não ser mal.

 

Chacrinha, dono de bordões memoráveis, como “quem não comunica se trumbica” - Foto: divulgação

Precisamos resgatar a arte de conversar

By | Educação | No Comments

O brasileiro moderno e digital poderia aprender algo com o Chacrinha. Abelardo Barbosa foi um dos maiores comunicadores do país entre as décadas de 1950 a 1980 por conseguir se conectar com o seu público e por saber fazer boas leituras de cada momento da sociedade. Com isso, ajustava seus programas e suas falas. E dentre seus memoráveis bordões, um sempre captou minha atenção: “quem não comunica se trumbica!” Ou seja, a arte de conversar é essencial para termos sucesso no que for.

Na sociedade polarizada, egoísta e impaciente das redes sociais, muitos parecem estar esquecendo de como fazer isso. Todos querem falar, mas poucos aceitam ouvir. Porém uma conversa exige, por definição, trocas entre pessoas. Para que seja boa, os interlocutores precisam estar dispostos a ouvir genuinamente o que o outro tem a dizer e demonstrar empatia. E –claro– ter algo útil a compartilhar ajuda nessa atividade.

Quando isso não é observado, tudo piora. Um exemplo emblemático aconteceu há duas semanas, na tentativa do Governo Federal de taxar compras em sites asiáticos, como a Shein, Aliexpress e Shopee. A medida é inescapavelmente impopular, pois deixará mais caras transações adoradas pela classe média. Mas uma comunicação falha e até arrogante tornou tudo mais confuso, gerando uma crise desnecessária.


Veja esse artigo em vídeo:


Entre idas e vindas, pessoas do governo dando declarações descontextualizadas e distantes do público, e a tradicional enxurrada de desinformação das redes sociais, muita gente continua sem entender como ficarão suas compras vindas do outro lado do mundo. Isso dói no bolso da população.

Ignorar isso nas comunicações é ignorar as necessidades do interlocutor, no caso, o povo. Por isso, a declaração do ministro da Fazenda, Fernando Haddad, de que não conhecia a Shein, só a Amazon “onde compra todo dia um livro, pelo menos”, foi entendida como elitista e arrogante. Graças a tudo isso, levantamento da consultoria Quaest mostrou que, naqueles dias, 83% das menções ao tema nas redes sociais foram negativas para o governo. A oposição tripudiou!

Mesmo sendo impopular, a comunicação poderia ter seguido outro caminho. Como os produtos ficarão mesmo mais caros, o governo deveria reforçar o discurso de que esse dinheiro extra será revertido para a própria população, melhorando a saúde e a educação, por exemplo. Além disso, precisa explicar por que a evasão de impostos dos portais asiáticos prejudica seriamente varejistas brasileiros, que pagam corretamente seus impostos e empregam muita gente.

Para se ter uma ideia da magnitude da “invasão asiática” no comércio de vestuário, levantamento do Instituto para o Desenvolvimento do Varejo (IDV) mostra que, em 2019, a Shein nem aparecia entre os principais nomes do setor. Dois anos depois, já abocanhava 16,1% do mercado, muito mais que marcas brasileiras tradicionais, que não param de cair. Por isso, elas apoiam a ideia de taxação das asiáticas.

Toda a gritaria resultante dessa falha de comunicação fez o governo recuar na proposta de eliminar o imposto de importação de produtos até US$ 50 entre indivíduos, mecanismo que as asiáticas usam para escapar da taxação (como empresas, não poderiam aproveitar isso). A ideia agora é forçar essas empresas a cobrar os impostos já na compra, o que a encarecerá do mesmo jeito. Mas nem isso foi bem comunicado à população.

O que não dá é insistir no discurso de que “nada mudou, pois o imposto sempre existiu, apenas era ignorado”. Na visão do consumidor, continua a sensação de que comprar da China é mais barato que do Brasil, e que a iniciativa do governo tornará isso mais caro e sua vida mais difícil.

 

Fazendo concessões

Uma boa conversa também implica em fazer concessões. Quem tenta impor seu ponto de vista, acaba ficando sozinho.

Em muitos casos, há interesses conflitantes no debate, mas isso não quer dizer que não se possa chegar a um consenso. No exemplo acima, a inabilidade na comunicação colocou os consumidores do lado dos portais asiáticos e contra os varejistas brasileiros e o próprio governo.

Poderia ter sido diferente!

Não dá para agradar todo mundo! Insistir nisso é um erro de muitas pessoas e empresas. Todos precisam conhecer quem forma seu público, pois as pessoas têm gostos, valores e visões de mundo diferentes. Ao se tentar abarcar muita gente, o que acontece é que se cria uma comunicação genérica e sem graça, que não agrada verdadeiramente ninguém.

Isso não quer dizer que devamos sair por aí cometendo “suicídios de imagem” ao dizer, sem nenhum cuidado, o que precisa ser dito. Precisamos expor as ideias e as informações necessárias, mas levando em consideração as necessidades de todos os envolvidos, negociando o que pode ser concedido em cada caso, sem que isso desfigure o objetivo original.

Sobre isso tudo, precisamos exercitar nossa sensibilidade e nossa empatia. Demonstrar esses sentimentos genuinamente pode pelo menos suavizar uma má notícia.

É uma pena que, em tempos de redes sociais, que criam bolhas que reforçam nossos pontos de vista (mesmo os piores), a empatia se tornou artigo de luxo. Isso acontece porque ela exige tempo e energia, duas coisas que as pessoas não querem conceder.

Em uma situação complexa como essa da taxação das compras nos portais asiáticos, em que há interesses diametralmente opostos, a empatia fica ainda mais importante. O governo precisa trazer a população para o seu lado, ao invés de afastá-la. Não é uma tarefa simples, pois a medida dói no bolso das pessoas, que ainda são incendiadas pela oposição.

Ainda assim, é possível, pelo menos, melhorar um pouco esse quadro. Mas, para isso, é preciso de conversa e de empatia.

Afinal, como diz a sabedoria popular, “é conversando que se entende”. Isso vale para o governo, para empresas e para cada um de nós.

Chacrinha que o diga!

 

Imagem artística de Tiradentes, criada por Oscar Pereira da Silva - Foto: Acervo do Museu Paulista da USP / Creative Commons

Se fosse hoje, Tiradentes teria ficado famoso no TikTok

By | Tecnologia | No Comments

Quanto tempo é necessário para se criar um herói?

Na sexta, comemoramos o Dia de Tiradentes. Aproveitamos o feriado em nome do maior herói da história do país, mas são pouquíssimos os brasileiros que sabem qualquer coisa sobre ele, além de uma história rasa e totalmente fantasiosa que aprendem na escola.

A sua imagem amplamente difundida foi criada por positivistas no momento da fundação da República. Em um país carente de heróis, precisavam de uma figura para personificar os ideais republicanos. Isso foi conseguido com um discurso único e ufanista sobre um homem esquecido durante todo o Império. A imprensa e o sistema educacional foram os veículos desse processo, que levou décadas para se consolidar.

Hoje, talvez isso acontecesse em poucos meses, algumas semanas até. Os ideólogos modernos fazem isso com o apoio das redes sociais, capazes de criar mitos e de destruir reputações consolidadas com incrível eficiência. A ideia simples dá lugar à disseminação ampla e orquestrada de uma enxurrada de informações que permitem a construção de ideias que se enraízam na mente de grande parte da população.

O Brasil está em pleno debate sobre a responsabilidade das redes sociais no processo de desinformação, que vem carcomendo a sociedade. Nessa semana, deve ser votado na Câmara dos Deputados o chamado “Projeto de Lei das Fake News”, que visa disciplinar o tema. Mas um grupo de mais de cem deputados, com o apoio das big techs, tenta impedir essa votação.


Veja esse artigo em vídeo:


É de se perguntar por que a resistência a esse projeto de lei, e como tanta gente compra essa ideia. De certa forma, a resposta é justamente o motivo que faz a legislação tão necessária: a capacidade de alguns grupos de disseminar facilmente informações falsas ou distorcidas para atingirem seus objetivos. Esse mecanismo sempre existiu, mas ganhou uma força descomunal com as redes sociais.

Isso nos remete de novo a Tiradentes. A imagem que nos vem à mente é a de um homem de barbas e cabelos longos, junto ao cadafalso. Mas Joaquim José da Silva Xavier, nome do herói, era um alferes e, como militar, o máximo que se permitia era um discreto bigode. Na prisão em que passou seus últimos três anos, era obrigado a raspar o cabelo e a barba, para se evitar piolhos.

Todas as representações conhecidas de Tiradentes são criações livres de artistas que nunca o viram. A mais famosa delas, com longa barba e cabeleira, surgiu sob medida para remeter à imagem de Jesus Cristo, reforçando o aspecto messiânico do personagem que se desejava criar. Ironicamente a própria imagem dominante de Cristo, com um aspecto e vestes europeias da Idade Média, não deve representar em nada um homem que nasceu e viveu no Oriente Médio há 2.000 anos, sendo ela própria fruto de manipulação.

A apresentação de Tiradentes como líder da Inconfidência Mineira tampouco faz jus aos fatos. Ele foi o único enforcado do grupo não por ser uma liderança, mas por ser o “menos rico” de todos e o único que confessou a participação, servindo de exemplo à população. Seus companheiros endinheirados foram condenados ao exílio. De qualquer forma, seu martírio caiu como uma luva para a construção de sua imagem heroica.

Nos dias atuais, ninguém precisa morrer para se tornar um símbolo nacional. Basta saber como usar as redes sociais para captar as insatisfações da população e construir narrativas eficientes que o apresentem como a solução para essas mazelas.

 

“Libertas quæ sera tamen”

Podemos argumentar que o texto “Libertas quæ sera tamen”, tradicionalmente traduzido como “Liberdade ainda que tardia”, nunca esteve tão atual, graças ao debate em torno da responsabilidade das redes sociais pela fake news. A frase em latim foi proposta pelos inconfidentes para a bandeira da república que idealizaram no Brasil do final do século XVIII. Hoje ela faz parte da bandeira do Estado de Minas Gerais.

Aqueles que se opõem à regulamentação das redes sociais argumentem justamente que ela cercearia a liberdade de expressão, abrindo caminho para todo tipo de censura. Como muitos processos eficientes de desinformação, a ideia se constrói sobre argumentos verdadeiros e até desejáveis (no caso, a liberdade), mas colocados de maneira maliciosamente distorcida, para convencer grande parte da população a apoiar os interesses de um grupo.

De fato, o grande problema do projeto de lei é não definir, de maneira inequívoca, o que são fake news, o que pode abrir brechas para quem se beneficia delas. Por outro lado, reconheço a dificuldade de criar uma regra definitiva para tal, recaindo sobre a Justiça arbitrar casos duvidosos.

Outro ponto questionável do projeto é garantir a imunidade parlamentar no meio digital. Não é segredo algum que, entre os maiores produtores, disseminadores e beneficiários da desinformação, estão muitos políticos. Isso pode blindar essa categoria para que continuem abusando desse expediente.

Apesar disso tudo, o projeto avança em um ponto essencial, que é a responsabilização das redes sociais pelo que se publica em suas páginas. Se isso já era grave, ficou explícito com a explosão de ataques a escolas, incentivados por publicações no meio digital.

As plataformas devem bloquear conteúdos indubitavelmente criminosos. Para caso de falsos positivos, devem oferecer mecanismos de contestação. Em conteúdos dúbios, a Justiça continuará sendo acionada para decisões. O que se exige dessas empresas é celeridade e transparência no processo, algo que elas não oferecem hoje.

Não se trata, portanto, de ameaça à liberdade ou criação de um mecanismo de censura. Todos podem continuar dizendo o que quiserem nas redes sociais, sendo penalizados apenas quando infringirem alguma lei, como, por exemplo, em casos de calúnia ou difamação. E esses crimes já eram definidos muito antes desse debate.

As empresas das redes sociais não podem continuar isentas de um problema que nasceu e continua existindo graças a recursos que elas criaram, por mais que não fosse esse seu objetivo. Não se deseja cercear liberdades ou banir plataformas, e sim trazê-las para o centro dos esforços de solução dessa crise.

Nosso papel, como cidadãos, é parar de acreditar na barba falsa de Tiradentes e buscar fatos confiáveis para nossa tomada de decisões. Ninguém está isento dessa responsabilidade, nem das consequências de usos abusivos das plataformas digitais.

 

Elon Musk, CEO do Twitter, que relaxou o controle de conteúdo quando comprou a rede social - Foto: Daniel Oberhaus / Creative Commons

A marcha da insensatez nas redes sociais e a falência da sociedade

By | Jornalismo | No Comments

Na última semana, um dos debates mais intensos no país foi a apuração da culpa das redes sociais no crescimento de ataques em escolas. Se já não bastasse a incredulidade diante de alunos e professores brutalmente assassinados, o posicionamento do Twitter em uma reunião de representantes das principais plataformas com o ministro da Justiça na terça provocou revolta. Entretanto, apesar daquela pavorosa declaração, precisamos olhar o problema sem simplificações.

Especialistas de educação e de saúde mental afirmam que a explosão de conteúdo nas redes sociais que menciona e até glorifica esses crimes serve como catalisador para novos atentados. Neste mesmo espaço, destrinchei o tema na semana passada. Mas como expliquei, apesar da contribuição dessas publicações para esses crimes, eles não podem ser atribuídos apenas a isso.

Ao longo da semana, conversei com profissionais de diferentes áreas sobre o caso. É um consenso que as redes sociais fazem muito menos do que poderiam e deveriam para o combate a esses crimes, como quando o Twitter disse naquela reunião que fotos de assassinos e de vítimas em posts não violariam as regras da rede ou sequer seriam apologia a crimes.

Muitos afirmam que retirar esse ou qualquer outro conteúdo seria censura. Alguns vão além e sugerem que esse movimento encobriria o interesse de um governo que, na verdade, estaria usando essa comoção para controlar a mídia.

São argumentos fortes, e eu até concordaria com isso, se as redes sociais fossem meios de comunicação tradicionais. Mas elas não são: sua gigantesca capacidade de nos convencer de qualquer coisa concentra o núcleo dessa discussão.


Veja esse artigo em vídeo:


Houve uma época em que eu era muito mais liberal sobre o que poderia ser publicado nas redes sociais. Eu as via como ferramentas que garantiam uma liberdade inédita ao cidadão para expor ideias em pé de igualdade com veículo de comunicação. Em 2015, cheguei a discordar publicamente do escritor e filósofo italiano Umberto Eco, quando ele disse que as redes sociais haviam dado voz a uma “legião de imbecis”, e que “o drama da Internet é que ela promoveu o idiota da aldeia a portador da verdade.”

Quando alguém argumentava que essas plataformas deveriam ter alguma responsabilidade sobre o que seus usuários publicavam nelas, eu comparava isso com culpar o fabricante de um carro se ele fosse usado em um assalto a banco. Porém, à medida que fui estudando mais os algoritmos das redes sociais, fui percebendo que essa analogia era muito errada. Se os carros fossem como redes sociais, eles eventualmente convenceriam seus donos a roubar o banco!

A minha “fase mais liberal” com as redes sociais vinha do fato de usar essas plataformas desde suas primeiras aparições, como o Friendster e o Orkut, há cerca de duas décadas. Elas eram quase pueris, feitas para encontrar velhos amigos e conhecer gente nova. Todo mundo “brincava” ali, sem ofensas, sem medo, sem ódio.

E tudo isso porque tampouco existiam algoritmos de relevância, popularizados pelo Facebook em 2014. São eles que escolhem o que seus bilhões de usuários veem nas redes. Mais que isso, para que as pessoas se sintam “confortáveis”, exibem apenas conteúdos de que elas gostem, prendendo cada um de nós nas infames “bolhas”.

Ao fazer isso, as redes sociais se transformaram nas ferramentas perfeitas de convencimento de qualquer coisa, até mesmo para se cometer um crime bárbaro.

É nessa hora que “o carro pode induzir seu dono a roubar o banco”.

 

A responsabilidade de cada um

As redes sociais estão na berlinda. Diante de sua apatia, o governo quer que as empresas criem canais para rápida remoção de conteúdo ligado a esses crimes, e ameaça com multas e até bloqueios a quem não colaborar.

“O governo tem na lei os limites aos quais suas ações podem chegar, e não pode haver liberdade para multar ou banir sem a devida previsão legal”, explica Márcio Chaves, sócio da área de Direito Digital do Almeida Advogados. No caso brasileiro, há o Marco Civil da Internet, que prevê que uma plataforma digital seja responsabilizada por um conteúdo apenas se não o remover após uma ordem judicial. “Esse limite foi imposto justamente para evitar a censura prévia e não jogar para o provedor essa obrigação”, acrescenta.

Mas Chaves acredita que a legislação dificilmente dará conta de todas as situações em que a segurança da sociedade seja ameaçada por uma suposta “liberdade de expressão”. Segundo ele, “por isso é tão importante estimular um ambiente não de imposição, mas de cooperação entre as empresas e a administração pública, no qual ferramentas tecnológicas, conselhos de supervisão, e autoridades judiciais possam endereçar situações sensíveis como a que estamos passando agora com os ataques nas escolas, em uma velocidade mais compatível com a que estamos sujeitos com o uso das tecnologias digitais”.

O debate sobre mais responsabilidade para as redes sociais acontece há alguns anos no Brasil. Ele está, por exemplo, no Projeto de Lei conhecido como “PL das Fake News” e em sugestões de atualização do Marco Civil da Internet. No geral, pede-se que essas plataformas sejam mais atuantes e efetivas na identificação de discurso de ódio, desinformação e outros crimes em suas páginas, removendo esse conteúdo sem necessidade de uma ordem judicial, mesmo não sendo obrigadas a isso.

O grande risco é se criar uma espécie de “censura algorítmica”, com essas plataformas eliminando equivocadamente conteúdos legítimos. É verdade que a tecnologia para essas identificações vem progredindo a passos largos, inclusive com o apoio da inteligência artificial, mas ela ainda não é garantida.

Precisamos encontrar mecanismos eficientes para coibir a escalada de crimes incentivados nas redes sociais, sem criar outros problemas. O que não pode acontecer é uma empresa não remover um conteúdo de ódio “porque não violaria seus Termos de Uso”, como disse o Twitter. Chaves lembra que eles “são contratos entre a plataforma e o usuário, e só há liberdade contratual se não for contrária à lei”.

Sobra o temor de o governo usar isso para controlar a mídia. Todos governantes desejam isso, em alguma escala. Antes se restringia à imprensa, mas ela, ainda que independente, obedece a leis. Além disso, o jornalismo profissional segue um Código de Ética, que faz com que sua produção, ainda que às vezes falha, tenha um mínimo de qualidade. Já as redes sociais parecem ser guiadas apenas pelos seus interesses.

Por fim, isso não pode virar uma discussão político-partidária, como muitos já têm feito. Tampouco há espaço para deixar tudo como está, pois o discurso de ódio nas redes agrava o problema de fato. Essas empresas devem abandonar sua complacência, para evitar medidas mais drásticas. E a sociedade precisa ficar vigilante para que nenhum governo use o pânico para controlar qualquer mídia.

 

Escolas se tornaram alvo porque abordam questões que podem alimentar o extremismo - Foto: Max Klingensmith / Creative Commons

Como as redes sociais influenciam os ataques a escolas

By | Educação | No Comments

Na quarta passada, o Brasil vestiu luto mais uma vez diante do ataque à creche Cantinho do Bom Pastor, em Blumenau (SC). Ela foi invadida por um homem de 25 anos que, de maneira brutal e imotivada, assassinou quatro crianças. O delegado-geral da Polícia Civil de Santa Catarina, Ulisses Gabriel, afirmou que não há indícios de que o crime tenha sido coordenado por meio de redes sociais ou games. Mas apesar de ele estar correto ao dizer que não existe vínculo direto no caso, o papel do meio digital em ataques como esse não pode ser ignorado.

A declaração me fez lembrar de um crime semelhante. No dia 13 de março de 2019, dois ex-alunos invadiram a escola estadual Professor Raul Brasil, em Suzano (SP). Eles mataram estudantes e funcionários e depois se suicidaram. Autoridades, ainda no local do atentado, sugeriram que a culpa seria do game que os assassinos jogavam.

Especialistas descartam a relação entre jogos digitais e a violência, mas o mesmo não pode ser dito das redes sociais. O aumento de grupos de ódio em suas páginas incentiva pessoas a praticar esses atos bárbaros. A sociedade precisa entender suas dinâmicas, para buscar soluções sustentáveis e eficientes.


Veja esse artigo em vídeo:


O crescimento desses grupos e dos ataques não é uma coincidência. Nove dias antes do atentado em Blumenau, um aluno de 13 anos assassinou uma professora de 71 anos em uma escola na Vila Sônia, na capital paulista. Em 2021, um homem de 18 anos matou duas funcionárias e três bebês em uma creche na também catarinense cidade de Saudades.

Até 2002, não havia relatos de atentados em escolas brasileiras. De lá para cá, 40 pessoas morreram em casos assim. O primeiro aconteceu em Salvador, em 2002. Depois dele, houve um caso em 2003, dois em 2011, um em 2012, 2017 e 2018, dois em 2019 e um em 2021. Já em 2022 foram seis ocorrências. Em 2023, estarmos ainda em abril, e já aconteceram três atentados, um deles felizmente sem vítimas.

“As escolas se tornaram alvos porque abordam questões que podem alimentar o extremismo, como educação sexual, diversidade, racismo e violência de gênero”, explica Evelise Galvão de Carvalho, mestre em Psicologia Forense e especialista em comportamento antissocial na Internet. “Dessa maneira, é necessário considerar esses ataques como crimes de ódio”, afirma.

Quando atentados assim acontecem, os participantes de um movimento online conhecido como “True Crime Community” se agitam, repercutindo os ataques como se fossem grandes feitos. Eles destacam os nomes dos autores e, quando disponíveis, distribuem fotos e vídeos da ação. Por isso, muitos desses participantes buscam essa perversa “fama”, por mais fugaz e doentia que seja.

O problema fica ainda mais preocupante quando se observa que esses grupos agora podem ser encontrados facilmente nas redes sociais, inclusive naquelas preferidas por adolescentes, como o TikTok. Até pouco tempo atrás, eles trafegavam apenas em áreas restritas nas redes sociais a na chamada “Dark Web”, em que são necessárias ferramentas e autorizações especiais para entrar, o que a torna ideal para criminosos.

Essa nova “liberdade” amplia o efeito de “contagiar” pessoas para que outras ações sejam realizadas. É o que aconteceu em 15 março de 2019, quando um supremacista branco matou 51 pessoas em duas mesquitas na Nova Zelândia. A ação foi transmitida ao vivo pelas redes, sendo massivamente compartilhada depois.

 

Redes de intolerância

Tais grupos são motivados por crenças de superioridade racial, étnica, religiosa ou nacionalista, e consequente inferioridade de quem é diferente. Alguns visam proteger valores tradicionais que consideram ameaçados. Frequentemente promovem suas ideias por desinformação e violência, e chegam a propor uma sociedade em que os outros sejam subjugados ou excluídos.

Esses ataques não são atos terroristas convencionais. As pessoas que os praticam costumam agir sozinhas, incentivadas pelo que veem na Internet, mas não se pode atribuir seus atos exclusivamente a esses grupos.

Os agressores seriam predispostos a cometer os atentados pois viveriam em ambientes violentos. Fatores como agressividade em casa, bullying nas escolas e insucesso em relacionamentos podem contribuir. Vale dizer ainda que a sociedade se tornou muito mais intolerante e radicalizada nos últimos anos, com grupos de poder desvalorizando o afeto, pregando o ódio e até desumanizando quem pensa de forma diferente. Por fim, a pandemia agravou problemas de saúde mental na população.

“Alguns grupos podem enxergar meninos como futuros líderes e tentar doutriná-los desde cedo, para garantir seu engajamento contínuo à medida que envelhecem”, explica Carvalho. “Os meninos são frequentemente socializados para valorizar a força e a agressão, e grupos de ódio podem tentar explorar essas normas culturais para recrutar novos membros.”

Não se trata, portanto, apenas de casos de polícia. Detectores de metal e até policiais das escolas podem reduzir esses ataques, mas não resolvem a violência, que se manifestará de outras formas.

A escola deve ser fortalecida, como um espaço de diversidade e de debate. Professores precisam ser valorizados e pais e mães devem se unir nesse esforço, ao invés de combatê-los por não concordar com algo. Também é um problema de saúde pública, com as autoridades precisando ficar atentas ao crescimento de isolamento social e problemas de saúde mental. As famílias também precisam de apoio para que consigam construir relacionamentos positivos com seus filhos, minimizando o desejo de se unir a esses grupos, por exemplo, por falta de afeto.

A mídia pode contribuir ao não divulgar nomes e imagens dos crimes, dificultando a sua promoção nas redes de ódio, que é o “prêmio” desses criminosos. No atentado de quarta passada, grandes veículos de imprensa agiram assim.

Da mesma forma, as redes sociais precisam fazer mais. Para Carvalho, “é de extrema importância que sejam regulamentadas, e indivíduos e empresas que permitem que esses grupos se organizem e disseminem o ódio e desinformação sejam penalizados”.

Caímos no tema da regulamentação das redes sociais, que tanto debate vem provocando. Qualquer que seja seu desfecho, casos como esses escancaram o tamanho do estrago que essas plataformas causam por se portar apenas como inocentes “mensageiros”: ao não serem responsabilizadas pelo que seus usuários publicam, continuam oferecendo os caminhos para fake news e o ódio destilado.

Se a desinformação política já não fosse ruim o suficiente, a fluidez digital do discurso de ódio agora está literalmente matando crianças.

 

Sam Altman, CEO da OpenAI, disse estar “um pouco assustado” com a inteligência artificial – Foto: Steve Jennings / Creative Commons

Como lidar com os algoritmos que se sobrepõem à verdade

By | Tecnologia | No Comments

Três acontecimentos da semana passada, que provavelmente passaram despercebidos da maioria da população, envolvem tecnologias de enorme impacto em nossas vidas. O primeiro foi uma audiência no STF (Supremo Tribunal Federal) que debateu, na terça, o Marco Civil da Internet. Na quarta, mais de mil pesquisadores, executivos e especialistas publicaram um manifesto solicitando que pesquisas de inteligência artificial diminuam o ritmo, por representarem “grandes riscos para a humanidade”. Por fim, na sexta, a Itália determinou que o ChatGPT, plataforma de produção de textos por inteligência artificial da OpenAI, fosse bloqueado no país.

Em comum, os três tratam de tecnologias existentes há anos, mas com as quais paradoxalmente ainda temos dificuldade de lidar: as redes sociais e a inteligência artificial. E ambas vêm se desenvolvendo exponencialmente em seu poder para distorcer a realidade a nossa volta, muitas vezes contra nossos interesses e a favor dos das empresas que criam essas plataformas.

Não é um exagero! As redes sociais, usadas por quase 5 bilhões de pessoas, definem como nos relacionamos, nos divertimos, conversamos e nos informamos, manipulando-nos para consumirmos o que os algoritmos consideram melhor (mesmo não sendo). A “inteligência artificial generativa”, que ganhou os holofotes no ano passado e tem no ChatGPT sua estrela, produz conteúdos incríveis, mas que podem embutir grandes imprecisões que as pessoas aceitam alegremente como fatos.

As preocupações que se impõem são como podemos aproveitar o lado bom desses serviços, enquanto nos protegemos de potenciais efeitos nocivos, além de como responsabilizar seus produtores, algo que não acontece hoje!


Veja esse artigo em vídeo:


As redes sociais já são nossas velhas conhecidas. Segundo o relatório “Digital 2023 Global Overview Report”, da consultoria americana We Are Social, os brasileiros passam uma média de 9 horas e 32 minutos na Internet por dia, das quais 3 horas e 46 minutos são em redes sociais. Nos dois casos, somos os vice-campeões mundiais.

Não é surpresa para ninguém que sejamos manipulados por elas, em maior ou menor escala. Segundo a mesma pesquisa, 65,2% dos brasileiros se dizem preocupados se o que veem na Internet é real ou falso. Nesse quesito, somos o quinto país no mundo.

Agora a inteligência artificial ganha um destaque sem precedentes nas discussões tecnológicas, pelo poder criativo das plataformas que elaboram conteúdo. Algumas pessoas acham isso a aurora de uma nova colaboração entre nós e as máquinas; outros veem como um risco considerável para a própria humanidade.

Mas ela já faz parte do nosso cotidiano profundamente. Basta ver que os principais recursos de nossos smartphones dependem da inteligência artificial. As próprias redes sociais fazem uso intensivo dela para nos convencer. E se considerarmos que isso provocou uma polarização social inédita, colocando em risco a própria sociedade, os temores dos pessimistas fazem algum sentido.

Essa amálgama de euforia e paranoia provoca decisões às vezes precipitadas, mesmo de pessoas qualificadas. Países do mundo todo, inclusive o Brasil, se debruçam sobre o tema, tentando encontrar mecanismos legais para organizá-lo.

 

Regular ou não regular?

No Brasil, o uso das redes é disciplinado pelo Marco Civil da Internet, de 2014. “Ele entrou em vigor quando discurso de ódio e fake news estavam em outro patamar”, afirma Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). “Acredito que a revisão seja necessária, mas não com a simples declaração de inconstitucionalidade do artigo 19, e sim a partir de sistemas mais efetivos e transparentes de como as big techs fazem a gestão dos próprios termos de uso quando violados.”

“Hoje temos interações mais rápidas e intensas, que mudam a forma como vivemos em sociedade”, explica Carolina Giovanini, advogada especialista em direito digital do Prado Vidigal Advogados. “Porém isso não significa que o Marco Civil da Internet esteja ‘ultrapassado’, pelo contrário: é uma legislação que foi pensada levando em consideração o futuro da rede.”

O referido artigo 19 está no centro dessa discussão porque protege as plataformas digitais de serem responsabilizadas pelo conteúdo que os usuários publicam em suas páginas. Segundo o texto, elas só poderiam ser penalizadas se deixassem de retirar algo do ar após uma ordem judicial.

Como a Justiça não consegue analisar tudo que se publica nas redes, especialistas defendem que as plataformas sejam obrigadas a fazer isso por sua conta. A inteligência artificial seria fundamental para decidir o que seria apagado, mas a subjetividade de muitos conteúdos dificulta a definição inequívoca do que é desinformação, o que poderia levar a censura por falsos positivos.

“A própria ideia das redes sociais é ser um portal descentralizado, sem ‘pauta editorial’ ou viés socioeconômico, para que a sociedade pulverizada ganhe voz”, sugere Matheus Puppe, sócio da área de TMT, privacidade e proteção de dados do Maneira Advogados. “Responsabilizando as plataformas, todo o modelo de negócios e o propósito da informação descentralizada vai por água abaixo.”

Na prática, isso vem permitindo que as empresas que produzem essas tecnologias gozem de uma prerrogativa rara, que é responder pouco ou nada por danos que provoquem. Não se pode imaginar um mundo sem elas, mas o crescimento explosivo da desinformação e a consequente polarização social não podem ser vistos como meros “efeitos colaterais”. É como “perdoar” um remédio que mate 5.000 pessoas para curar outras 10.000: a cura é bem-vinda, mas não se pode tolerar tantas mortes.

“O ponto é que um novo regime de responsabilidade não é desejado pelas big techs”, afirma Crespo. “Elas têm até bons argumentos para manter como está, na medida em que elas mesmas removem alguns conteúdos ilícitos por vontade própria.”

Estamos em um impasse! Como canta Ney Matogrosso, “se correr o bicho pega; se ficar, o bicho come!” As redes sociais estão no centro da nossa vida. A inteligência artificial abre possibilidade incríveis e necessárias. Eliminá-las é impossível, desacelerá-las é improvável. Mas esses problemas aparecem cada vez com mais força.

Qualquer que seja o futuro, ele precisa ser criado com a participação ativa de todos os agentes da sociedade. Essas empresas não podem continuar dando as cartas baseadas apenas na sua busca pelo lucro, pois seus produtos estão muito além de qualquer outra coisa já feita, do ponto de vista de transformação social.

Os benefícios devem ser distribuídos para todos, assim como as responsabilidades e os riscos. O futuro não pode ser distópico!

 

A pílula vermelha do filme “Matrix”, usada por grupos que abraçam realidades distorcidas pela Internet – Foto: divulgação

A Internet tem “memória de elefante”, mas alguns apagam seus crimes na realidade alternativa da rede

By | Jornalismo | No Comments

Um estudo da empresa de cibersegurança NordVPN indicou que cerca de 20% dos brasileiros gostariam de ter todos os seus dados apagados da Internet. Infelizmente isso é impossível, pois a informação que cai na rede acaba sendo replicada em muitos locais, além de continuarmos deixando nossas “pegadas digitais” o tempo todo. Entretanto, como em outras coisas da vida, a regra parece só valer para o “cidadão comum”: para quem tem muito dinheiro, é possível até remover referências online a seus crimes.

O grupo internacional de jornalistas investigativos Forbidden Stories vem divulgando práticas que alguns bandidos ou simplesmente pessoas endinheiradas usam para alterar seu passado na Internet. Não é trivial ou barato e, na maioria dos casos, é ilegal e antiético. Empresas manipulam os algoritmos de buscadores e de redes sociais para os resultados não exibirem os fatos, mas sim o interesse de seus clientes.

Na prática, vivemos em uma realidade alternativa, em que todos os pecados parecem perdoados. Nossa presença online tornou-se uma ferramenta que nos arrasta para longe da verdade e manipula nossas emoções e comportamentos para proteger criminosos, enquanto nos faz de massa de manobra do poder. O grande risco é que essas versões fabricadas ultrapassem os limites do digital e se imponham sobre nossa vida.


Veja esse artigo em vídeo:


Essas práticas são primas-irmãs dos mecanismos de desinformação e fake news, que também distorcem a realidade para convencer uma legião de pessoas sobre um assunto do interesse de quem as publica.

Segundo o material da Forbidden Stories, uma das estratégias usadas por essas empresas de “lavagem de reputação” é a velha intimidação. Enviam e-mails a jornalistas, como se fossem autoridades, ameaçando-os de sanções graves caso não apaguem informações contra seus clientes. Outra, mais moderna, consiste em denunciar, com recursos das redes, publicações que exponham negativamente seus clientes, como se violassem direitos autorais. A expectativa é que os algoritmos das plataformas digitais apaguem suas referências a esses materiais.

Outra tática, ainda mais ousada, é criar muitas páginas elogiosas (e falsas) sobre seus clientes em sites pseudojornalísticos. Usando técnicas para aumentar a audiência desse conteúdo, os buscadores acabam empurrando as notícias verdadeiras para sua terceira página de repostas (ou mais), aonde raramente os usuários chegam.

Essa consciente alteração dos fatos no meio digital não serve apenas para apagar rastros de crimes na Internet. Seu poder de convencimento também se manifesta no surgimento de grupos sociais que defendem ferozmente ideias distorcidas como se fossem incontestáveis, colhendo algum benefício a partir disso.

Por exemplo, na semana passada, um dos assuntos mais destacados nas redes foi a série de ataques contra mulheres por homens que acreditam na submissão delas como caminho para que resgatem sua masculinidade. Esses grupos vêm crescendo nos últimos anos, graças a uma combinação de narrativas nos meios digitais.

Essas e outras organizações que distorcem a realidade de diferentes maneiras acreditam que foram “libertados” de um suposto controle da ciência, da mídia e de educadores. Afirmam ter escolhido a “pílula vermelha” (uma referência ao filme Matrix, de 1999), que os permitiria “ver o mundo como realmente é”.

 

A origem de uma ideia

Outro filme que nos ajuda a entender esse mecanismo de convencimento é “A Origem” (2010). Nele, uma equipe entra em sonhos de outras pessoas para “plantar ideias” em suas mentes. Na descrição desse inusitado serviço, uma vez que a ideia ganha força no cérebro da vítima, é quase impossível erradicá-la.

De certa forma, o filósofo e psicólogo suíço Jean Piaget (1896-1980) já defendia isso. Para ele, não há nada mais persistente que uma teoria que criamos por conta própria. O poder de convencimento nas redes sociais usurpa esses conceitos ao oferecer recursos para que as pessoas pensem estar construindo suas próprias teorias. Na verdade, estão sendo conduzidas a encontrar elementos que consigam encaixar de maneira crescente, até que cheguem, no seu ritmo, ao momento da “revelação”.

Essas “peças” não precisam ser verdadeiras. Basta que se encaixem em uma ideia que faça sentido, dando ao indivíduo o prazer de sentir que está “vendo o que sempre lhe negaram”. E normalmente essas liberdades ampliam desejos pré-existentes nessas pessoas, como o medo de vacinas ou a submissão de mulheres.

Em outras palavras, a ideia mais forte não é imposta, mas sim construída aos poucos.

Esse poder pode ser visto em nossa sociedade há muitos anos, quando aqueles que escolheram as “pílulas vermelhas” dos mais diferentes sabores na Internet manifestam seu “aprendizado” na realidade. Graças a elas, por exemplo, muitos deixaram de se vacinar contra a Covid-19 e, por isso, morreram.

O clímax da realidade distorcida se manifestou no dia 8 de janeiro, quando uma horda depredou as sedes dos três Poderes da República, achando que estavam defendendo a democracia. E uma parcela significativa da população continua pensando assim, a despeito do absurdo daqueles acontecimentos. Tudo porque essa é a “sua conclusão”.

As diferentes plataformas digitais não podem se furtar de seu papel nisso tudo. Ainda que involuntariamente, elas se tornaram as distribuidoras das “pílulas vermelhas” e se prestam à “lavagem de reputações”. Como esses grupos vêm agindo mais ou menos impunemente há anos, ficaram suas raízes no mundo real a partir do digital. Essas empresas são, portanto, corresponsáveis por isso, e precisam se esforçar muito mais para combater a “realidade alternativa” em suas propriedades.

De toda forma, por mais que façam isso, elas não conseguirão dar conta do problema sozinhas. A mídia e os educadores precisam produzir conteúdos que restabeleçam a verdade e reconstruam os valores de boa convivência.

Entretanto isso não pode continuar sendo feito do jeito de sempre: apontando o que é o certo e o que é errado. Precisam se apropriar das ferramentas dos grupos de desinformação, não para atuar de forma antiética ou criminosa, mas para ajudar as pessoas a aprenderem aos poucos o que é o certo, chegando a suas conclusões.

Isso não é trivial, mas, se não se apropriarem desse recurso, dificilmente terão sucesso nessa empreitada que pode consumir uma geração para desfazer tanto mal.

Até lá, precisamos redescobrir os caminhos para uma convivência pacífica e construtiva, mesmo com aqueles que tenham ideias e valores diferentes do nossos. A despeito de alguns tropeços pela caminho, foi assim que a humanidade chegou até aqui.

 

A Finlândia firmou-se como referência em educação midiática, após mudanças nas escolas em 2016 – Foto: Felicity Weary/Creative Commons

Precisamos de uma boa educação midiática para nossa sociedade não desaguar na barbárie

By | Educação | No Comments

Sempre que viajo, costumo analisar a mídia de onde vou. É cristalino que, quanto mais livre e profissional é a imprensa do lugar, mais bem informada é a população e consequentemente mais vibrante é a sociedade. Por essas e outras, governos autoritários combatem a imprensa, algo que vem sendo praticado no Brasil de maneira sistemática e crescente nos últimos anos.

Não se trata apenas de ataques a veículos de comunicação e a jornalistas, inaceitáveis em uma democracia. Como exemplo, na terça passada, a repórter Renata Cafardo e o fotógrafo Tiago Queiroz, do Estadão, foram agredidos física e verbalmente por moradores de um condomínio de luxo em São Sebastião, enquanto cobriam as tragédias causadas pelas chuvas. De onde vem tanto ódio gratuito?

O afastamento das pessoas de boas fontes de informação, substituindo-as por questionáveis redes sociais, coloca a própria democracia em risco à medida que derrete a capacidade do cidadão de discernir entre a verdade e a mentira, entre o bem e o mal. O resultado desse processo em nosso país é a grotesca polarização que nos rachou ao meio, culminando nos abomináveis ataques à democracia de 8 de janeiro.

A reversão do caos em que vivemos passa pela educação midiática, um conjunto de práticas que ensina crianças e adolescentes a desenvolver uma visão crítica sobre o que a mídia –em todos seus formatos– lhes apresenta, para que sejam capazes de consumir, compreender e até produzir informação de qualidade.


Veja esse artigo em vídeo:


“É mais que preparar para o uso da mídia: é preparar para compreender esse mundo em que a gente vive”, explica Ana Lúcia de Souza Lopes, professora de Pedagogia da Universidade Presbiteriana Mackenzie. “E todo esse universo midiático faz parte dele.”

Um ótimo exemplo dos ganhos da educação midiática para uma sociedade vem da Finlândia. Quando a vizinha Rússia tomou da Ucrânia a região da Crimeia em 2014, os finlandeses começaram a ser bombardeados com altas cargas de desinformação, para influenciar o debate política em favor dos russos.

O governo então reformou seu sistema educacional em 2016, para incluir uma disciplina de alfabetização midiática, que também é abordada de maneira transversal em todas as matérias. Como resultado, a Finlândia tornou-se o país mais resistente à desinformação entre as nações da Europa pelo estudo anual do instituto Open Society, firmando-se como uma referência mundial no combate às fake news.

Se me permitem um abuso de linguagem, uma “boa desinformação” é aquela que parece ser verdadeira e que reforça desejos de quem a lê. É por isso que se espalha rapidamente e ganha ares de fato incontestável. E quanto menos a pessoa tiver uma visão crítica das informações, mais suscetível será a esse controle.

Se já não bastasse esse desafio, especialistas temem que as recém-popularizadas inteligências artificiais generativas, como o ChatGPT, sejam usadas para criar fake news ainda mais críveis. Fiz alguns testes com essa ferramenta e –justiça seja feita– na maioria das vezes, ela respondeu que não poderia entregar o que eu pedia porque era falso. Mas nas ocasiões em que fiz pedidos que já continham várias mentiras, ela pariu obras-primas da desinformação.

Ter uma visão crítica da mídia e do mundo torna-se uma questão de sobrevivência!

 

Mudança de época

Em junho de 2014, em entrevista ao jornal italiano “Il Messaggero”, foi perguntado ao papa Francisco se o aumento da corrupção se deveria à mídia dar mais destaque ao tema. O pontífice explicou que “vivemos não só uma época de mudanças, mas uma mudança de época”. Para ele, isso altera profundamente aspectos culturais.

A digitalização da vida está no centro desse processo. Os mais jovens têm grande acesso a conteúdo, normalmente sem a necessária visão crítica. E assim como podem influenciar positivamente suas famílias com o que aprendem na escola, como respeito ao meio ambiente e diversidade, também podem ser vetores de fake news.

“A criança não só consome a desinformação: ela é uma propagadora”, explica Maria Carolina Cristianini, editora-chefe do “Joca”, um jornal brasileiro dedicado a crianças e adolescentes. Por isso, segundo ela, os pequenos leitores precisam entender a sua responsabilidade sobre o que leem e o que reproduzem em seus círculos sociais.

“Participar de um meio de comunicação é uma das maneiras de dar a dimensão real da importância da imprensa, da conscientização sobre a desinformação, e que informação de qualidade não é uma expressão vaga”, conta Mônica Gouvêa, diretora educacional da Editora Magia de Ler.

Crianças são naturalmente curiosas e participativas, por isso a educação midiática ganha ainda mais importância. “É nessa geração que a gente tem que trazer essa mudança de época, para mudar a sociedade”, explica Lopes. “Senão, cada vez mais, estaremos com uma sociedade alienada”, conclui.

A escola é o melhor lugar para isso, pela visão diversa de mundo que embute. No Brasil, a educação midiática ainda engatinha, com iniciativas pontuais de algumas escolas e redes de ensino. Ainda assim, alguns pais e mães se colocam contra essas práticas, argumentando que a escola estaria doutrinando ideologicamente seus filhos.

Cristianini argumenta que essa reação é inócua, pois é impossível manter a criança em uma “bolha de pensamento único”. É melhor que ela esteja preparada para lidar com pensamentos divergentes, que a impactarão mais cedo ou mais tarde. Além disso, ela explica que as famílias podem usar até conteúdos de que discordem para explicar aos filhos suas visões de mundo. “As notícias podem ajudar nisso, podem ser a base para essa conversa”, acrescenta.

“Alguns pais acham que tem o momento certo para você saber de algumas coisas, mas não existe isso”, explica Gouvêa. Os jovens consomem conteúdo o tempo todo, e sempre é uma oportunidade de se desenvolver seu senso crítico.

Aqueles que lucram com a desinformação atuam maquiavelicamente na contramão disso. Ao invés de dizer o que as pessoas devem fazer, oferecem um mecanismo para que essas pessoas se enredem em uma narrativa profunda que distorce a realidade, acreditando que elas chegaram a essas conclusões, e que não estão sozinhos.

A Finlândia é um exemplo a ser seguido. Governo, escolas, educadores e famílias precisam se unir para a disseminação da educação midiática, para formar gerações saudavelmente críticas e menos suscetíveis à desinformação. Elas construirão uma sociedade melhor e ajudarão as gerações anteriores a fazer o mesmo.

Caso contrário, corremos o risco de ver a democracia se esfacelando, com os ataques de 8 de janeiro parecendo manifestações legítimas.

 

Na batalha da desinformação, a verdade foi a primeira vítima e agora todos sofremos

By | Jornalismo | No Comments

Na primeira semana do novo governo, uma das ações mais polêmicas foi a criação da Procuradoria Nacional de Defesa da Democracia, vinculada à AGU (Advocacia-Geral da União). Polêmica que ficou nanica diante do violento ataque à democracia cometido neste domingo, em Brasília. Mas justamente por esses atos antes impensáveis, essa análise ganha ainda mais importância, pois o problema não está distante, e sim algo que toca todos nós, em nossas telas de smartphones e computadores.

A polêmica em torno da criação da nova Procuradoria, que tem como um dos objetivos o combate à desinformação, gira, entre outras coisas, pela definição apresentada para o próprio termo, o que, argumentam alguns, poderia transformá-lo em um instrumento de censura.

Existe uma máxima que diz que, “em uma guerra, a primeira vítima é a verdade”. Isso acontece porque, qualquer que seja o lado do conflito, seus cidadãos nunca têm acesso ao ponto de vista e a informações do inimigo. Assim, seus governantes podem manipular os fatos e usá-los como uma “verdade” para seu benefício próprio. É o que se observa hoje claramente na guerra da Ucrânia.

Mas em tempos de redes sociais onipresentes e onipotentes, todos nós sofremos os efeitos de outro tipo de guerra inescapável, que culminou na destruição generalizada na praça dos Três Poderes neste domingo: a da dita desinformação, que tem nas fake news sua maior arma.

Na desinformação, apesar de estarmos todos “do mesmo lado”, cada pessoa recebe informações filtradas pelos algoritmos que a ajudam a reforçar pontos de vista existentes, incluindo preconceitos e mentiras. E, também nesse caso, os grupos de poder manipulam os fatos, para criar “suas verdades”.

Por tudo isso, ninguém questiona a necessidade de se combater a desinformação, que rachou a sociedade brasileira e a levou à beira desse precipício político nunca visto desde a redemocratização.


Veja esse artigo em vídeo:


O ponto central da polêmica no combate à desinformação foi como ela foi definida pelo novo órgão: “mentira voluntária, dolosa, com o objetivo claro de prejudicar a correta execução das políticas públicas com prejuízo à sociedade e com o objetivo de promover ataques deliberados aos membros dos Poderes com mentiras que efetivamente embaracem o exercício de suas funções públicas”.

Em tese, essa definição é válida. O problema é que não deveria dar espaço a interpretações livres dos envolvidos, mas acaba abrindo brechas para isso com adjetivos, advérbios ou pontos que dependem de comprovação.

A preocupação é legítima pelo histórico de governos de diferentes ideologias de usarem a musculatura estatal e brechas da legislação para legitimar atos questionáveis de aliados e questionar ações legítimas de opositores ou de quem simplesmente os critique. A imprensa é vítima costumaz desse mecanismo, com censuras judiciais e, em anos mais recentes, com a perseguição violenta e até a desumanização de jornalistas por iniciativa de governantes. E, graças ao enorme poder de convencimento das redes sociais, uma parcela significativa da população comprou essa ideia e a pratica.

A AGU declarou, em nota, que “desinformação e mentira são diferentes do sagrado benefício da liberdade de expressão” e que “não há a menor possibilidade de que a AGU atue de forma contrária à liberdade de expressão, de opinião e ao livre exercício da imprensa”.

“A gente precisa compreender que, quando se fala em desinformação, precisamos partir de um conceito mais amplo para ‘dar um norte’ sobre o que a gente está conversando”, explica Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). “Mas também é importante entender que esse conceito mais amplo não pode ser o que vai definir o resultado de uma ação contra a desinformação.”

Ele lembra que a AGU não é uma instituição de governo, é sim de Estado. Dessa forma, não faz parte de suas atribuições defender governantes, apesar de ser responsável pela orientação jurídica do Poder Executivo.

Assim a instituição não poderia censurar ou punir ninguém, um papel do Judiciário. O risco recai no histórico de governos de extrapolar esses limites e, de certa forma, usurpar suas atribuições em anos anteriores.

 

A maltratada liberdade de expressão

Nada disso seria necessário se a sociedade não tivesse descambado nesse vale-tudo em que se incite ou efetivamente se pratique diversos crimes e que, depois, isso seja “desculpado” com uma “aparentemente magia” chamada liberdade de expressão.

“O que aconteceu nesses últimos anos é que discursos golpistas, autoritários, desinformativos foram propagados sob uma chancela de que se estava praticando liberdade de expressão”, explica Crespo. “Como isso foi feito durante muitos anos, em sequência, por muitas pessoas de diferentes instituições, ficou parecendo que liberdade de expressão é isso”.

Mas ela não determina tudo o que pode ser dito. Pelo contrário, em tese, pode-se falar qualquer coisa, desde que isso não configure um crime, contravenção, invada a liberdade de outra pessoa ou a coloque em algum tipo de risco, por exemplo.

Nesse sentido, a iniciativa da AGU pode ser muito positiva, desde que seja bem executada e respeitada pelo próprio governo, pois, em empresas e na sociedade, as pessoas seguem o exemplo de seus líderes. “Quando os nossos dirigentes políticos adotam comportamento violadores da ética, dos bons costumes, das boas práticas, das boas maneiras, da inclusão, da diversidade, do respeito, é muito mais fácil insuflar a população a ir contra isso tudo também”, sugere Crespo.

Em outras palavras, a guerra conta a desinformação tem diversas frentes. Oferecer uma boa definição, que não crie mais dúvidas que certezas, é uma delas. Precisamos também que os órgãos dos três Poderes da República executem adequadamente suas funções, deixando ao Judiciário o papel de proibir ou punir.

Sobre isso tudo, precisamos de bons exemplos de expoentes diversos de nossa sociedade, figurando, em primeiríssimo lugar, nossos governantes. A situação dramática em que estamos vivendo, com nosso tecido social feito trapo e a democracia sob ataque, resulta de um consistente processo destrutivo dos últimos anos.

Resta saber se o novo governo resistirá ao apelo fácil de fazer o mesmo com a desinformação, apenas com outra ideologia. Torço para que resista a isso e tenha sucesso na reconstrução de nossa sociedade, sem fazer mais vítimas nessa guerra contra a desinformação.