Monthly Archives: março 2024

Soldados ucranianos exibem drone russo capturado em agosto passado - Foto: Ministério de Assuntos Internos da Ucrânia/Creative Commons

Como vencer uma guerra sem disparar um único tiro

By | Tecnologia | No Comments

Para mim, as guerras representam a falência da humanidade. Quando governos recorrem a armas para impor pontos de vista ou obter ganhos às custas de incontáveis vidas humanas e enorme destruição, algo dramaticamente deu errado, partindo para a força. A tecnologia vem abrindo novos caminhos para a guerra, em que as armas dividem seu protagonismo com o mundo digital.

Talvez cheguemos a um cenário em que se vença um conflito sem que nenhum tiro seja disparado, o que não quer dizer que não mais existirão prejuízos e sofrimento. Ainda não estamos lá, mas a brutal invasão russa na Ucrânia fez dos dois anos desse teatro de guerra um campo de testes tecnológicos de drones, novos materiais e inteligência artificial para fins militares, que estão transformando o conceito da guerra.

Ela sempre esteve associada à ciência, para o desenvolvimento de melhores estratégias e armamentos. Grandes avanços para a humanidade também se derivaram disso, como a penicilina e até os fornos de micro-ondas.

Agora a Ucrânia vivencia uma guerra de algoritmos, inteligência artificial e satélites. O desconhecido se torna claro, previsível e muitas vezes evitável. Por outro lado, tropas e civis se tornam mais vulneráveis. Generais criam assim suas estratégias com o apoio de algoritmos preditivos e de armas que cumprem “suas missões” sozinhas.

Mas então por que o conflito da Ucrânia chegou a um impasse, sem conclusão aparente? Por que as cidades seguem sendo destruídas e as pessoas continuam sendo mortas? Como se pode ver, nesse videogame, ninguém tem vida extra.


Veja esse artigo em vídeo:


A resposta passa, em parte, por essas novas tecnologias serem relativamente portáteis, baratas e disponíveis para ambos os lados do conflito. Em janeiro, dois comandantes veteranos, o general Yuri Baluievski, ex-chefe do Estado-Maior russo, e o general Valeri Zaluzhni, chefe do Estado-Maior ucraniano, fizeram publicações em que abordam a digitalização da guerra, respectivamente na publicação russa “Army Standard” e no site do Ministério de Defesa da Ucrânia.

As tropas de ambos os países estão aprendendo as mesmas lições. Entre elas, está que a tecnologia favorece mais a defesa. A exceção são os drones, veículos aéreos e aquáticos não-tripulados, que conseguem causar danos aos inimigos de maneira barata, eficiente e preservando tropas, enquanto tanques, aviões e navios têm sido mais facilmente interceptados. Eles são as estrelas desse conflito sangrento.

Não se trata dos sofisticados drones militares americanos. Os veículos usados no conflito são baratos, às vezes equipamentos de mercado, que podem ser adquiridos em grande quantidade. Eles são modificados para carregar explosivos e para tentarem ser menos suscetíveis aos sistemas do inimigo que embaralham as frequências que usam, fazendo com que os pilotos percam seu controle. E nessas contramedidas digitais, a Rússia vem levando vantagem, com sua massiva máquina de guerra.

Mas uma nova geração de drones tenta resolver esse problema. Graças à inteligência artificial, eles são capazes de cumprir sua missão, mesmo que seu piloto remoto perca o contanto com eles. Nesse caso, o sistema no próprio veículo assume o controle e faz tudo que for necessário para atingir seu alvo, mesmo que ele se mova.

Nem sempre dá certo. Em uma simulação no ano passado, um “drone inteligente” atacou seu próprio centro de comando depois de receber dele um comando para cancelar a missão. O robô entendeu que essa ordem atrapalhava o objetivo de destruir o inimigo, e por isso atacou a própria base. Felizmente era apenas uma simulação.

Às vezes, soluções simples podem ser mais eficientes. As armas antigas, sem inteligência ou guiadas por GPS, ganham uma sobrevida com o apoio da tecnologia, que indica com precisão onde os disparos devem acontecer. Os ucranianos também têm usado celulares espalhados pelo território para captar o zunido típico dos drones. Dessa forma, identificam sua aproximação melhor que caros sistemas de radar.

Smartphones nas mãos dos soldados tornaram-se, por outro lado, uma perigosa ameaça a sua segurança. A Ucrânia infligiu pesadas baixas aos russos ao atacar locais em que identificaram grande concentração de sinais de celulares, WiFi ou Bluetooth.

 

Uma guerra sem disparos

A guerra do futuro tem outras formas, igualmente ligadas ao avanço da tecnologia. Ela pode viabilizar confrontos que acontecerão sem disparos e uso de tropas militares, mas ainda assim criarão grandes prejuízos ao inimigo.

Além dos já citados drones, mais fáceis de compreender e implantar, Forças Armadas de diversos países investem no desenvolvimento de ataques cibernéticos, capazes de inutilizar digitalmente a infraestrutura de inimigos. Em um mundo cada vez mais digital, isso pode colocar uma nação de joelhos em curtíssimo tempo. Militares estão atentos a isso e tratam de proteger seus equipamentos. Mas atacar sistemas civis, muito mais vulneráveis, podem trazer resultados catastróficos.

A inteligência artificial, especialmente modelos de linguagem amplos (como o ChatGPT), está sendo usada para identificar fragilidades em inimigos, analisar fotos de satélite e até decifrar suas mensagens cifradas, o que pode conceder uma vantagem tática incrível. Isso teve um papel decisivo na vitória dos Aliados na Segunda Guerra Mundial, quando uma equipe de matemáticos britânicos, liderada por Alan Turing, construiu um rudimentar computador mecânico capaz de decifrar a máquina Enigma, usada pelos nazistas para suas transmissões militares codificadas.

Rompendo a tradição de se manterem afastadas de desenvolvimentos militares, algumas big techs e startups americanas, como Microsoft, Amazon Web Services, OpenAI e Scale AI, têm trabalhado com os militares do país para que sua tecnologia seja usada com esse fim. O Google também fazia isso, mas encerrou sua colaboração com o Pentágono em 2019, após protestos de seus funcionários.

A mistura de IA com armamentos desperta medo em muita gente, alguns oriundos da ficção científica, como nos filmes do “Exterminador do Futuro”. Espero que não cheguemos àquilo, mas uma guerra cibernética pode envolver a contaminação de bases de dados dessas plataformas no inimigo, para que elas tomem decisões erradas e potencialmente devastadoras.

O militar prussiano Carl Von Clausewitz (1790-1831), especialista em estratégias militares, escreveu em sua obra “Sobre a Guerra” (1832) que “a guerra é a continuação da política por outros meios”. Segundo ele, trata-se de “um ato de violência destinado a forçar o adversário a submeter-se à nossa vontade.”

Para isso, ao longo da história, o ser humano usou porretes, flechas, rifles, canhões e bombas, armas químicas e biológicas, e dispositivos nucleares. A tecnologia da vez vem do mundo digital. Mas qualquer que seja o meio, a guerra continua sendo o que é, conduzida por homens que desprezam qualquer vida que não seja a sua própria, para atingir objetivos no mínimo questionáveis.

 

Roberta Metsola, presidente do Parlamento Europeu, que acaba de aprovar a Lei da Inteligência Artificial - Foto: PE/Creative Commons

Europa regulamenta a IA protegendo a sociedade e sem ameaçar a inovação

By | Tecnologia | No Comments

O Parlamento Europeu aprovou, na quarta passada (13), a Lei da Inteligência Artificial, uma legislação pioneira que visa a proteção da democracia, do meio ambiente e dos direitos fundamentais, enquanto promove o desenvolvimento dessa tecnologia. As novas regras, que devem entrar em vigor ao longo dos próximos dois anos, estabelecem obrigações para desenvolvedores, autoridades e usuários da IA, de acordo com potenciais riscos e impacto de cada aplicação.

Na semana anterior, a Europa já havia aprovado uma lei que regula a atuação das gigantes da tecnologia, favorecendo a competição. Tudo isso consolida a vanguarda do continente na organização do uso do mundo digital para proteger e beneficiar a sociedade, inspirando leis pelo mundo. O maior exemplo é a GDPR, para proteção de dados, que no Brasil inspirou a LGPD, nossa Lei Geral de Proteção de Dados.

Legislações assim se tornam necessárias à medida que a digitalização ocupa espaço central em nossas vidas, transformando profundamente a sociedade. Isso acontece desde o surgimento da Internet comercial, na década de 1990. De lá para cá, cresceu com as redes sociais, com os smartphones e agora com a inteligência artificial.

O grande debate em torno dessas regras é se elas podem prejudicar a sociedade, ao atrapalhar o desenvolvimento tecnológico. A preocupação é legítima, mas ganha uma dimensão muito maior que a real por influência dessas empresas, que se tornaram impérios por atuarem quase sem regras até agora, e gostariam de continuar assim.

Infelizmente essas big techs abusaram dessa liberdade, sufocando a concorrência e criando recursos que, na prática, podem prejudicar severamente seus usuários. Portanto, essas leis não devem ser vistas como ameaças à inovação (que continuará existindo), e sim como necessárias orientações sociais para o uso da tecnologia.


Veja esse artigo em vídeo:


A nova lei proíbe algumas aplicações da IA. Por exemplo, o uso de câmeras fica restrito, sendo proibido o “policiamento preditivo”, em que a IA tenta antecipar um crime por características e ações das pessoas. Também são proibidos a categorização biométrica e a captação de imagens da Internet ou câmeras para criar bases de reconhecimento facial. A identificação de emoções em locais públicos, a manipulação de comportamentos e a exploração de vulnerabilidades tampouco são permitidos.

“O desafio é garantir que tecnologias de vigilância contribuam para a segurança e bem-estar da sociedade, sem prejuízo das liberdades civis e direitos individuais”, explica Paulo Henrique Fernandes, Legal Ops Manager no Viseu Advogados. “Isso requer um diálogo contínuo para aprimoramento de práticas e regulamentações que reflitam valores democráticos e éticos”, acrescenta.

A lei também disciplina outros sistemas de alto risco, como usos da IA em educação, formação profissional, emprego, infraestruturas críticas, serviços essenciais, migração e Justiça. Esses sistemas devem reduzir os riscos, manter registros de uso, ser transparentes e ter supervisão humana. As decisões da IA deverão ser explicadas aos cidadãos, que poderão recorrer delas. Além disso, imagens, áudios e vídeo sintetizados (os deep fakes) devem ser claramente rotulados como tal.

A inovação não fica ameaçada pela lei europeia, porque ela não proíbe a tecnologia em si, concentrando-se em responsabilidades sobre aplicações que criem riscos à sociedade claramente identificados. Como a lei prevê um diálogo constante entre autoridades, desenvolvedores, universidades e outros membros da sociedade civil, esse ambiente pode até mesmo favorecer um desenvolvimento sustentável da IA, ao criar segurança jurídica a todos os envolvidos.

A nova legislação também aborda um dos temas mais polêmicos do momento, que é o uso de conteúdos de terceiros para treinar as plataformas de IA. Os donos desses sistemas vêm usando tudo que podem coletar na Internet para essa finalidade, sem qualquer compensação aos autores. A lei aprovada pelo Parlamento Europeu determina que os direitos autorias sejam respeitados e que os dados usados nesse treinamento sejam identificados.

 

Evitando Estados policialescos

Um grande ganho da nova lei europeia é a proteção do cidadão contra o próprio Estado e seus agentes. A tecnologia digital vem sendo usada, em várias partes do mundo, para monitorar pessoas e grupos cujas ideias e valores sejam contrárias às do governo da vez, uma violação inaceitável a direitos fundamentais, além de criar riscos enormes de injustiças por decisões erradas das máquinas.

Em várias partes do mundo, inclusive no Brasil, muitas pessoas foram presas por terem sido confundidas pelos sistemas com criminosos. Em São Paulo, a primeira proposta do programa Smart Sampa, implantado em 2023 pela Prefeitura e que monitora os cidadãos com milhares de câmeras, previa que o sistema indicasse à polícia pessoas “em situação de vadiagem”, seja lá o que isso significasse.

A ficção nos alerta há muito tempo sobre os problemas desses abusos. O filme “Minority Report” (2002), por exemplo, mostra que mesmo objetivos nobres (como impedir assassinatos, nessa história) podem causar graves danos sociais e injustiças com a tecnologia. E há ainda os casos em que as autoridades deliberadamente a usam para controlar os cidadãos, como no clássico livro “1984”, publicado por George Orwell em 1949.

O Congresso brasileiro também estuda projetos para regulamentar a inteligência artificial. O mais abrangente é o Projeto de Lei 2.338/2023, que propõe o Marco Legal da Inteligência Artificial. “Enquanto a União Europeia estabeleceu um quadro regulatório detalhado e abrangente, focando na gestão de riscos associados a diferentes usos da IA, o Brasil ainda está definindo seu caminho regulatório, com um enfoque aparentemente mais flexível e menos prescritivo”, explica Fernandes.

É inevitável a profunda transformação que a inteligência artificial já promove em nossa sociedade, um movimento que crescerá de maneira exponencial. Os benefícios que ela traz são imensos, mas isso embute também muitos riscos, especialmente porque nem os próprios desenvolvedores entendem tudo que ela vem entregando.

Precisamos estar atentos também porque muitos desses problemas podem derivar de maus usos da IA, feito de maneira consciente ou não. Por isso, leis que regulamentem claramente suas utilizações sem impedir o desenvolvimento são essenciais nesse momento em que a colaboração entre pessoas e máquinas ganha um novo e desconhecido patamar. Mais que aspectos tecnológicos ou de mercado, essas legislações se tornam assim verdadeiros marcos civilizatórios, críticos para a manutenção da sociedade.

 

Tim Cook, CEO da Apple: empresa foi multada pela União Europeia em €1,8 bilhão - Foto: Christophe Licoppe/Creative Commons

Como a tentativa europeia de enquadrar as big techs impacta nossas vidas

By | Tecnologia | No Comments

Na segunda passada (4), a Apple foi multada pela União Europeia em €1,8 bilhão (cerca de R$ 9,8 bilhões), em um processo movido pelo Spotify há cinco anos, que a acusava de práticas de concorrência desleal. A decisão impacta muito mais que a empresa e seus clientes: ela reflete mudanças que vários governos tentam impor às big techs para reduzir seu enorme poder sobre a vida da população global.

A principal queixa era a exigência pela Apple de que os aplicativos para o iPhone e o iPad sejam instalados exclusivamente a partir da App Store, com a empresa ficando com 30% das transações na sua plataforma. O Spotify entendia que o Apple Music, serviço de streaming da Apple, tinha uma vantagem indevida, pois esses 30% ficavam na empresa. Além disso, ele já vem pré-instalado em todos esses equipamentos.

Travestida de facilidade para os clientes, essa sutil imposição dos próprios produtos valendo-se de ser dono de um ecossistema digital foi criada pela Microsoft na segunda metade da década de 1990, graças à dominância do Windows. Nos anos seguintes, o modelo foi aperfeiçoado pela Apple, Google e Meta. O processo foi tão eficiente, que nós, os usuários, mal percebemos essa dominação e achamos tudo normal.

Mas isso pode estar com os dias contados. Na Europa, as big techs fizeram mudanças profundas em seus modelos de negócios, graças à Lei dos Mercados Digitais (ou DMA, na sigla em inglês), que passou a valer na quinta passada (7). Pelo tamanho do mercado europeu e por suas regulações da tecnologia inspirarem leis ao redor do mundo, podemos começar a ver movimentos semelhantes em outras regiões.

Essas empresas construíram seus impérios digitais praticamente sem regras, focadas nos lucros, esmagando concorrentes e com rumos definidos apenas pelas suas próprias bússolas morais. Resta saber se o surgimento dessas novas leis realmente encerrará esse período de “autorregulação” e se isso beneficiará os seus clientes.


Veja esse artigo em vídeo:


A nova lei europeia afeta como as big techs produzem e distribuem seus produtos, os métodos de pagamento e até a publicidade online, visando garantir a concorrência. Quem desobedecê-la pode ser multado em até 20% de sua receita global.

Por isso, a Apple agora permite lojas de aplicativos de terceiros em seus produtos, o Google alterou o Android para usuários trocarem o Chrome por outro navegador e o Google por outro buscador, e a Meta aceita que outros serviços conversem com o WhatsApp e o Messenger, além de permitir que contas do Facebook e do Instagram sejam desvinculadas. A Microsoft já aceita que os usuários desativem o Bing no Windows, e a Amazon solicita o consentimento dos clientes para personalização de anúncios. Por fim, o TikTok agora permite que os usuários baixem todos seus dados na plataforma. Mas tudo isso só vale para os europeus!

Os legisladores de lá entendem que a melhor maneira de ter mais concorrência é ela acontecer na plataforma, e não a substituir. A DMA reforça a União Europeia como o órgão regulador mais agressivo para a tecnologia, já tendo criado regas sobre privacidade de dados, moderação de conteúdo online e inteligência artificial.

As big techs não vendem barato essas derrotas no mundo todo. Basta lembrar o que fizeram no Brasil no ano passado, quando o chamado “PL das Fake News” seria votado, para tentar regular abusos nas plataformas digitais. Elas fizeram um pesado lobby junto aos políticos e usaram sua máquina de convencimento para cooptar a população a seu favor. O projeto acabou engavetado.

“Empresas têm liberdade para oferecer seus produtos e serviços da maneira que considerarem mais estratégica, mas essa liberdade é limitada por leis que procuram prevenir práticas que restrinjam a concorrência”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propagando e Marketing (ESPM). “Também há questões relativas ao direito do consumidor, já que, por exemplo, no Brasil se proíbe a venda casada e outras práticas que violem o direito de escolha”, conclui.

As big techs chegaram a pedir ajuda ao governo americano contra a nova lei europeia, argumentando que ela seria contra os trabalhadores e os interesses dos Estados Unidos. A Casa Branca, mais interessada no apoio europeu para questões como a guerra da Ucrânia, não interferiu.

Mas se a concorrência é benéfica ao mercado e aos clientes, por que não vemos movimentos tão contundentes quanto a DMA fora da Europa?

 

Benefícios e prejuízos aos clientes

Ao longo dos anos, as empresas de tecnologia souberam aproveitar lacunas na legislação para criar seus monopólios. Além disso, são inegáveis os benefícios que sua tecnologia trouxe para a sociedade. Por isso, muitas se tornaram empresas queridas pelos clientes e pela mídia.

Ninguém propõe o fim dessas empresas ou que se deixe de usar seus produtos, e sim que tanto poder não seja usado para esmagar a concorrência. “A questão central é se os benefícios imediatos para os consumidores superam os potenciais prejuízos a longo prazo decorrentes de práticas anticompetitivas”, explica Crespo.

De certa forma, essas leis representam um amadurecimento do setor de tecnologia, a exemplo do que se vê em outros importantes e altamente regulados, como o farmacêutico, o bancário e o automobilístico. Porém mesmo os criadores dessas regras têm dúvidas se elas diminuirão a posição de incrível dominância dessas empresas. Eles esperam que, pelo menos, elas ajudem novos concorrentes a surgir e a prosperar. As big techs, por sua vez, têm muito dinheiro e talentos para se adaptar aos novos cenários. Para Crespo, “o que estamos vendo é uma redefinição das regras do jogo, que visa criar um ecossistema digital mais competitivo e inovador”.

Essas iniciativas funcionam quase como apostas para um mercado mais diverso e saudável. Talvez essas empresas usem suas fortunas, seus produtos e seus exércitos de advogados para sufocar as propostas, mas isso seria muito ruim, pois não bastam mudanças cosméticas para que vejamos o florescimento de uma concorrência real, capaz de beneficiar a sociedade.

Sem isso, continuaremos vendo nossas vidas sendo guiadas por uma mão invisível tecnológica, que nos afaga com inovações verdadeiras, mas que nos coíbe de buscarmos isso em outras fontes. Nossa liberdade de escolha e até de pensamento vem sendo tolhida há muito tempo, enquanto ficamos presos nessas gaiolas douradas.

 

IA pode ser usada na eleição, mas seguindo regras para evitar fake news - Ilustração: Paulo Silvestre com Freepik/Creative Commons

Regras para IA nas eleições são positivas, mas criminosos não costumam seguir a lei

By | Tecnologia | No Comments

A tecnologia volta a ser protagonista na política, e não dá para ignorar isso em um mundo tão digital. Na terça, o Tribunal Superior Eleitoral (TSE) aprovou instruções para o pleito municipal desse ano. Os usos de redes sociais e inteligência artificial nas campanhas chamaram atenção. Mas apesar de positivas e bem-produzidas, elas não dizem como identificar e punir a totalidade de crimes eleitorais no ciberespaço, que só aumentam. Enquanto isso, a tecnologia continua favorecendo os criminosos.

Claro que a medida gerou uma polêmica instantânea! Desde 2018, as eleições brasileiras vêm crescentemente sendo decididas com forte influência do que se vê nas redes sociais, especialmente as fake news, que racharam a sociedade brasileira ao meio. Agora a inteligência artificial pode ampliar a insana polarização que elege candidatos com poucas propostas e muito ódio no discurso.

É importante que fique claro que as novas regras não impedem o uso de redes sociais ou de inteligência artificial. Seria insensato bloquear tecnologias que permeiam nossa vida e podem ajudar a melhorar a qualidade e a baratear as campanhas, o que é bem-vindo, especialmente para candidatos mais pobres. Mas não podemos ser inocentes e achar que os políticos farão apenas usos positivos de tanto poder em suas mãos.

Infelizmente a solução para essas más práticas do mundo digital não acontecerá apenas com regulamentos. Esse é também um dilema tecnológico e as plataformas digitais precisam se envolver com seriedade nesse esforço.


Veja esse artigo em vídeo:


A iniciativa do TSE não é isolada. A preocupação com o impacto político do meio digital atingiu um pico no mundo em 2024, ano com 83 eleições ao redor do globo, a maior concentração pelos próximos 24 anos. Isso inclui algumas das maiores democracias do mundo, como Índia, Estados Unidos e Brasil, o que fará com que cerca de metade dos eleitores do planeta depositem seus votos até dezembro.

As regras do TSE procuram ajudar o eleitor a se decidir com informações verdadeiras. Por isso, determinam que qualquer texto, áudio, imagem ou vídeo que tenha sido produzido ou manipulado por IA seja claramente identificado como tal. Além disso, proíbem que sejam criados sistemas que simulem conversas entre o eleitor e qualquer pessoa, inclusive o candidato. Vedam ainda as deep fakes, técnica que cria áudios e vídeos falsos que simulam uma pessoa dizendo ou fazendo algo que jamais aconteceu.

Além de não praticar nada disso, candidatos e partidos deverão denunciar fraudes à Justiça Eleitoral. As plataformas digitais, por sua vez, deverão agir por conta própria, sem receberem ordens judiciais, identificando e removendo conteúdos que claramente sejam falsos, antidemocráticos ou incitem ódio, racismo ou outros crimes. Se não fizerem isso, as empresas podem ser punidas. Candidatos que infringirem as regras podem ter a candidatura e o mandato cassados (no caso de já terem sido eleitos).

Outra inovação é equiparar as redes sociais aos meios de comunicação tradicionais, como jornal, rádio e TV, aplicando a elas as mesmas regras. Alguns especialistas temem que esse conjunto de medidas faça com que as plataformas digitais exagerem nas restrições, eliminando conteúdos a princípio legítimos, por temor a punições. E há ainda o interminável debate se elas seriam capazes de identificar todos os conteúdos problemáticos de maneira automática.

Os desenvolvedores estão se mexendo, especialmente por pressões semelhantes que sofrem nos Estados Unidos e na União Europeia. Em janeiro, 20 empresas de tecnologia assinaram um compromisso voluntário para ajudar a evitar que a IA atrapalhe nos pleitos. A OpenAI, criadora do ChatGPT, e o Google, dono do concorrente Gemini, anunciaram que estão ajustando suas plataformas para que não atendam a pedidos ligados a eleições. A Meta, dona do Facebook, do Instagram e do WhatsApp, disse que está refinando técnicas para identificar e rotular conteúdos criados ou modificados por inteligência artificial.

Tudo isso é necessário e espero que não se resuma apenas a “cortinas de fumaça” ou “leis para inglês ver”. Mas resta descobrir como fiscalizar as ações da parte ao mesmo tempo mais frágil e mais difícil de ser verificada: o usuário.

 

Ajudando o adversário a se enforcar

Por mais que os políticos e as big techs façam tudo que puderem para um bom uso desses recursos, o maior desafio recai sobre os cidadãos, seja um engajado correligionário (instruído ou não pelas campanhas), seja um inocente “tio do Zap”. Esses indivíduos podem produzir e distribuir grande quantidade de conteúdo incendiário e escapar da visão do TSE. Pior ainda: podem criar publicações ilegais como se fossem o adversário deliberadamente para que ele seja punido.

O tribunal não quer que se repita aqui o que foi visto na eleição presidencial argentina, em novembro. Lá as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para denegrir a imagens dos adversários.

Em outro caso internacional, os moradores de New Hampshire (EUA) receberam ligações de um robô com a voz do presidente Joe Biden dizendo para que não votassem nas primárias do Estado, no mês passado. Por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, circulou em dezembro com ofensas contra professores. Os dois casos eram falsos.

Esse é um “jogo de gato e rato”, pois a tecnologia evolui muito mais rapidamente que a legislação, e os criminosos se valem disso. Mas o gato tem que se mexer!

Aqueles que se beneficiam desses crimes são os que buscam confundir a população. Seu discurso tenta rotular essas regras como cerceamento da liberdade de expressão. Isso não é verdade, pois todos podem continuar dizendo o que quiserem. Apenas pagarão no caso de cometerem crimes que sempre foram claramente tipificados.

Há ainda o temor dessas medidas atrapalharem a inovação, o que também é questionável. Alguns setores fortemente regulados, como o farmacêutico e o automobilístico, estão entre os mais inovadores. Por outro lado, produtos reconhecidamente nocivos devem ser coibidos, como os da indústria do cigarro.

A inteligência artificial vem eliminando a fronteira entre conteúdos verdadeiros e falsos. Não se pode achar que os cidadãos (até especialistas) consigam identificar mentiras tão bem-criadas, mesmo impactando decisivamente seu futuro. E as big techs reconhecidamente fazem menos do que poderiam e deveriam para se evitar isso.

Ausência de regras não torna uma sociedade livre, mas anárquica. A verdadeira liberdade vem de termos acesso a informações confiáveis que nos ajudem a fazer as melhores escolhas para uma sociedade melhor e mais justa para todos.

Ao invés de atrapalhar, a tecnologia deve nos ajudar nessa tarefa. E ela pode fazer isso!