ética

Robô Atlas, da Boston Dynamics, movimenta peças entre armários - Foto: reprodução

Inteligência dos robôs humanoides avança rápido, mas seus corpos ainda são rudimentares

By | Tecnologia | No Comments

Há alguns dias, vi um robô humanoide funcionando em um hospital. Ele cambaleava pelos ambientes, pegava objetos em gavetas e fazia lentamente ações simples, que renderam muitas visualizações. Mas diante desses vídeos, às vezes vendidos como produtos prontos em uso, sempre penso que jamais aceitaria ser atendido por aquilo. E, se fosse gestor do hospital, não gastaria um tostão em tal máquina.

Estou muito longe de ser um ludita. Pelo contrário, sou um entusiasta de diferentes formas de tecnologia e pesquisador de inteligência artificial. Mas, talvez justamente por isso, desenvolvi um olhar bastante crítico sobre essas supostas “operações”.

É um fato que as versões mais recentes de robôs humanoides fazem movimentos incríveis, como se fossem pessoas. Muitos aparecem “trabalhando” em empresas, em atividades diversas. Isso desperta grande entusiasmo em parte do público, como se a ficção científica estivesse se materializando diante de nossos olhos.

Mas a verdade nua e crua é que isso não passa de propaganda. Ironicamente, a inteligência artificial que controla essas máquinas avança de maneira galopante, mas seus corpos ainda se comportam como brinquedos caros e limitados.

Esses robôs funcionam bem em ambientes extremamente controlados, com tarefas previsíveis. Mas o mundo insiste em ser caótico e inesperado. Além disso, os sentidos de uma criança superam largamente os sensores de qualquer robô, permitindo que ela se adapte a situações simplórias cotidianas em que a máquina não sabe o que fazer.

Se há algo que podemos tirar disso é que, apesar de a robótica e principalmente a IA estarem cada vez mais incríveis, há coisas que elas não conseguem fazer, pelo menos ainda. Mas principalmente há aquilo que elas não devem fazer, mesmo sendo capazes. E isso tem a ver com como posicionamos a nossa humanidade nesse cenário.


Veja esse artigo em vídeo:


Apesar desse hype, eu não chamaria esses autômatos de fraudes. As empresas que os criam estão efetivamente buscando soluções para problemas reais, como robôs capazes de operar em ambientes insalubres para pessoas. Elas também os estão testando e coletando informações no mundo real para treinar seus sistemas.

Mas me incomoda essa apresentação como máquinas que já fossem versáteis e confiáveis, convencendo muita gente dessas características que elas não têm. A única coisa totalmente verdadeira agora é o desejo de seus fabricantes de encher nossos olhos para conseguirem muito dinheiro de investidores. E assim nós promovemos uma tecnologia incipiente por acreditarmos que já estamos perto do mundo dos Jetsons.

Certamente, em algum dia, essas máquinas “chegarão lá” e se tornarão tudo que prometem ser. Mas não será neste ano, nem no próximo. Em ambientes menos complexos, como em uma linha de montagem, que deve ser o mais previsível possível, teremos robôs humanoides confiáveis talvez em uns cinco anos.

No setor de serviços, robôs humanoides efetivamente funcionais devem demorar ainda mais (talvez uma década), pois se trata de um local bem mais imprevisível e confuso. Pior que isso, só mesmo o ambiente doméstico, pois casas são caóticas, cheias de variáveis, objetos irregulares e situações inesperadas.

Não estou falando dos aspiradores de pó robôs, que desempenham bem o seu trabalho por fazerem apenas uma coisa e serem otimizados para isso. Para uma máquina substituir com vantagens um trabalhador doméstico humano, ela precisa combinar três coisas que hoje não existem, que são uma destreza física avançada, uma compreensão contextual sofisticada e um custo acessível.

Para termos isso, pelo menos 15 anos ainda serão necessários.

 

A dificuldade de “estar no mundo”

Em todas essas situações, quanto menos parametrizadas forem suas tarefas, pior. Por isso, se o robô tiver que lidar com pessoas, que são imprevisíveis por definição, a sua eficiência cai exponencialmente.

Não se trata apenas de uma limitação mecânica, e sim cognitiva. Interagir com humanos exige compreensão de linguagem, contexto e emoção. E mesmo com os avanços recentes da IA generativa, integrar isso de forma confiável em um corpo físico artificial ainda é um desafio técnico enorme.

Nosso organismo evoluiu por milhões de anos para tirarmos o máximo das sensações de estarmos imersos no mundo. Isso é natural até para um bebê, mas não para uma máquina. Um exemplo são os carros autônomos, que se envolvem em menos acidentes que motoristas humanos, porém ainda apresentam eventualmente comportamentos erráticos e inexplicáveis, por mais que façam a única tarefa de dirigir.

A solução passa pela chamada “inteligência artificial sensitiva”. Ela não significa consciência ou sentimentos das máquinas, mas sim sua capacidade de integrar tipos variados de percepção, como visão, áudio e tato, e transformar isso em ação. Para isso, combinam visão computacional, linguagem natural e controle motor.

Nos últimos anos, houve progressos relevantes nessa área. Empresas como a OpenAI e o Google DeepMind vêm desenvolvendo os chamados “modelos de mundo”. Eles permitem que os robôs aprendam tarefas menos por programação explícita e mais por demonstração ou instrução em linguagem natural. Mas ainda há um descompasso entre a percepção e a tomada de decisão, que melhoraram muito, e a execução física, que continua tosca.

Há ainda um componente psicológico. Queremos que máquinas “entendam” e “sintam” não só por eficiência, mas porque isso torna a nossa interação com elas mais natural. Talvez a busca por robôs humanoides “sensíveis” se refira menos a objetivos técnicos e mais à nossa expectativa de conviver com tecnologias que se pareçam conosco.

Precisamos avaliar se isso é mesmo necessário para que sejam úteis, especialmente em atividades críticas, como as que envolvem a integridade e a saúde das pessoas. Então possivelmente os robôs mais úteis não serão humanoides, mas sistemas híbridos, como uma espécie de “infraestrutura inteligente”.

Em qualquer caso, a regra de ouro é que tanto a IA quanto os robôs só devem ser concebidos para o bem da humanidade, e não para interesses de marketing de seus fabricantes. Resta saber se isso nos será entregue.

 

Dario Amodei, CEO da Anthropic, discursa no AI Impact Summit, que aconteceu há duas semanas, na Índia Foto: reprodução

Proibição da Anthropic por Trump expõe os perigos de um vale-tudo com a IA

By | Tecnologia | No Comments

Na semana passada, neste mesmo espaço, abordei em artigo como a militarização da inteligência artificial pode se tornar um severo risco existencial para a humanidade, especialmente em cenários em que limites éticos no desenvolvimento e uso dessa tecnologia sejam desrespeitados. Pois bem, na sexta passada (27), o presidente dos EUA, Donald Trump, resolveu banir a Anthropic de qualquer contrato com o governo, justamente por ela insistir nesses cuidados.

Ironicamente, o Claude, plataforma de IA da Anthropic, era, até então, a única classificada como segura para aplicações em redes secretas de militares nos EUA. Agora eles exigem essa tecnologia para “qualquer finalidade legal”. Isso inclui a vigilância em massa de cidadãos e seu uso em armas letais totalmente autônomas. Foi quando o CEO da empresa, Dario Amodei, não concordou.

Outras empresas, aparentemente com menos escrúpulos, ocuparam o espaço da Anthropic assim que Trump a escorraçou. A primeira foi a xAI, criadora do Grok, seguida de perto pela OpenAI, dona do ChatGPT. Vale dizer que a Anthropic nasceu quando Amodei e outros pesquisadores se demitiram da OpenAI em 2021 por discordarem do ritmo acelerado de comercialização e da redução na segurança.

Um funcionário do governo disse ao jornal Financial Times que o Claude continua sendo o melhor modelo para uso militar, e que cortá-lo imediatamente prejudicaria as operações. De fato, apesar das ameaças e dos insultos de Trump, a transição deve durar seis meses, período em que um acordo ainda pode ser feito.

Não se trata de um problema pontual entre uma empresa e militares, ou de mais um arroubo autoritário de Trump. As exigências são profundamente antidemocráticas. Se isso for adiante, criará um Estado autoritário sem precedentes, que violará liberdades fundamentais de cidadãos do mundo todo. E as big techs serão cúmplices.


Veja esse artigo em vídeo:


Em nota, Amodei disse que essa vigilância é “incompatível com valores democráticos” e que só é “legal” em alguns casos pelo descompasso entre a lei e a capacidade da IA. As novas exigências permitirão ao governo correlacionar, em larga escala e automaticamente, localização, navegação, associações e outros dados públicos e privados, criando perfis completos de pessoas sem supervisão judicial robusta.

No mês passado, ele publicou que “uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam”. Sobre o uso da IA em armas totalmente autônomas, a Anthropic argumenta que os modelos atuais não são suficientemente confiáveis para operar sistemas letais sem supervisão humana, o que colocaria em risco as vidas tanto de militares quanto de civis.

A empresa, avaliada em US$ 380 bilhões, tem contratos de US$ 200 milhões com as Forças Armadas. O Pentágono acreditava que ela cederia após as ameaças. Mas sua recusa mostra como o Departamento de Guerra não consegue dobrar facilmente empresas do Vale do Silício, ao contrário de fornecedores militares tradicionais, que dependem de contratos de longa duração.

As empresas de IA dependem de profissionais muito qualificados, difíceis de recrutar e mais difíceis de reter. Eles mudam para outras empresas, se não concordarem com posicionamentos de suas lideranças. Além disso, os US$ 200 milhões dos militares representam apenas uma pequena porcentagem da receita da Anthropic: suas vendas corporativas em 2025 ficaram entre US$ 8 bilhões e US$ 10 bilhões.

O secretário de Guerra, Pete Hegseth, ameaçou acionar a Lei de Produção de Defesa para forçar a Anthropic a dar aos militares o que eles querem. Ela concede ao presidente dos EUA poderes emergenciais para intervir na economia do país pela defesa nacional. Nesse caso, empresas devem cumprir ordens sob pena de multas, sanções criminais, perda de contratos, apreensão de bens e até intervenção federal.

 

Revolta no Vale do Silício

A crise provocou uma reação no Vale do Silício. Funcionários da Amazon, do Google e da Microsoft enviaram carta aberta na sexta aos seus superiores pedindo que apoiem a Anthropic e rejeitem contratos que envolvam armas autônomas ou monitoramento em larga escala. Na quinta, 175 funcionários do Google e 50 da OpenAI assinaram outra carta pedindo que suas empresas se recusem a concordar com o Pentágono.

“Eles estão tentando dividir cada empresa com o medo de que a outra ceda”, dizia o documento. “Essa estratégia só funciona se nenhum de nós souber qual é a posição dos outros. Esta carta serve para criar entendimento compartilhado e solidariedade diante dessa pressão do Departamento de Guerra.”

Isso lembra um conflito ético envolvendo o Vale do Silício e os militares em 2017. O Projeto Maven usava a visão computacional da IA do Google para identificar alvos, mas com supervisão humana. Milhares de funcionários se opuseram à empresa “estar no negócio da guerra”, denunciando que a tecnologia poderia refinar ataques letais. O Google decidiu não renovar o contrato e publicou princípios afirmando que não desenvolveria a IA para armas. Mas, no ano passado, eles acabaram flexibilizados.

Agora, os militares não querem só um “Maven mais rápido”, e sim modelos para planejar e apoiar missões, guerra eletrônica e potencialmente controle de armas. E não aceitam “insubordinações” como a da Anthropic e a do Google de 2017.

O amplo uso de IA como exige o Pentágono ameaça a segurança global e os direitos humanos ao facilitar o início de conflitos com armas letais autônomas. Além de gerar um vácuo legal na responsabilização por mortes de civis, erros algorítmicos em operações militares podem ampliar conflitos de maneira rápida e irreversível.

No âmbito interno, a tecnologia impulsiona a vigilância em massa, com rastreamento de localização, contatos e preferências políticas e religiosas em escala sem precedentes. Isso cria discriminação algorítmica de minorias e a repressão de liberdades civis. Sem transparência, a infraestrutura opaca da IA inibe a participação política e pode corroer silenciosamente os pilares fundamentais da democracia liberal.

Antes de se perguntar o que a IA pode fazer pela segurança dos países, devemos perguntar o que os militares estão dispostos a fazer com a liberdade de seus cidadãos usando a IA. Se a democracia não consegue impor limites à IA em tempos de paz relativa, é improvável que faça isso em meio a uma guerra.

Se a Anthropic sucumbir à pressão, passará ao Vale do Silício o recado de que princípios custam caro demais. E aí poucos repetirão esse gesto essencial para a democracia e a vida.

 

Sam Altman (OpenAI) e Dario Amodei (Anthropic) não deram as mãos para foto na Cúpula de Impacto da IA em Nova Délhi – Foto: reprodução

Busca pela superinteligência artificial esconde interesses, brigas, riscos e muita cortina de fumaça

By | Tecnologia | No Comments

Na quinta passada, durante a Cúpula de Impacto da IA em Nova Délhi, Sam Altman, CEO da OpenAI, e Dario Amodei, CEO da Anthropic, se recusaram a dar as mãos para uma foto em grupo, ao lado do primeiro-ministro indiano, Narendra Modi. Seria uma bobagem, se eles não liderassem as empresas criadoras do ChatGPT e do Claude, duas das principais plataformas de IA do mundo.

O gesto explicita a corrida insana pela superinteligência artificial, um cenário hipotético em que as máquinas teriam ampla autonomia operacional e seriam melhores que os seres humanos em quase todas as tarefas cognitivas. Quem chegar lá primeiro assumirá uma inigualável liderança econômica e política. Mas há sérios riscos que não podem ser ignorados nesse desenvolvimento.

De certa forma, essa concorrência desmedida contraria o que diz o documento final da cúpula indiana, que prega que “a promessa da IA só se realiza plenamente quando seus benefícios são compartilhados por toda a humanidade”. Mas vozes dissonantes nas próprias organizações afirmam que, para vencer essa disputa, empresas e governos estão perigosamente abandonando a ética e a segurança.

Isso vem provocando reações. Mustafa Suleyman, CEO da unidade de IA da Microsoft, fala de uma “superinteligência humanista”. Enquanto isso, mais de 135 mil pessoas, incluindo alguns dos principais pesquisadores da IA do mundo, como Geoffrey Hinton e Yoshua Bengio, já assinaram uma declaração que propõe o fim dessa corrida. No Brasil, o manifesto ContAIn Now sugere financiar uma infraestrutura de governança que torne a contenção da IA mais rentável do que a imprudência.

Como diz o ditado, “onde há fumaça, há fogo”. O encontro na Índia deixou claro os descomunais interesses econômicos e políticos, os conflitos, as possibilidades e os riscos em torno da IA. Diante de tudo isso, não podemos ser ingênuos ou catastrofistas se quisermos buscar soluções verdadeiramente sustentáveis.


Veja esse artigo em vídeo:


A existência da Anthropic é fruto desse desconforto. Ela nasceu de uma dissidência da OpenAI, quando Amodei e outros pesquisadores deixaram a empresa por discordarem do ritmo acelerado de comercialização e da suposta redução de foco na segurança. Foi um “racha” que marcou o início de uma divisão profunda na indústria entre quem quer avançar a qualquer custo e quem se preocupa com as consequências.

A Cúpula na Índia tentou vender a agenda de “Pessoas, Planeta, Progresso”. Mas, nos corredores, um intenso debate opunha as intenções de acelerar ou conter o desenvolvimento da IA, expandir sua capacidade ou estruturar limites. A promessa de democratização da tecnologia muitas vezes serviu apenas como “verniz diplomático” para esconder a tensão sobre quem deve, de fato, ditar as regras e conter os riscos.

A geopolítica permeou cada painel. A Índia buscou assumir a liderança do Sul Global na tecnologia, enquanto os EUA tratam a IA como uma corrida decisiva contra a China, afrouxando regras e ameaçando retaliar países que a regulem demais. A Europa, por sua vez, continua insistindo em marcos rígidos e o Brasil defendeu o multilateralismo e o desenvolvimento inclusivo.

Esses projetos colidem na prática. É inevitável questionar, portanto, se existe um ponto de convergência real ou se estamos apenas empilhando discursos bonitos sobre estruturas de poder que continuam profundamente autocentradas.

A corrida pela superinteligência é a versão atual da “tragédia dos comuns”. Ninguém tem incentivo para desacelerar sozinho. Mesmo quando as big techs admitem publicamente os perigos, elas continuam investindo bilhões para não perderem mercado, temendo que cautela se torne oportunidade de domínio do concorrente.

 

Marketing ou tecnologia humanista?

Suleyman propõe abrir mão de parte da capacidade para garantir o controle humano da IA. A ideia tem mérito ao reconhecer limites, mas também cumpre uma função estratégica, legitimando a Microsoft na corrida, ao afirmar que é possível ser rápido e também prudente, ainda que essa equação nunca tenha sido simples na tecnologia.

Pyr Marcondes, autor do ContAIn Now, reconhece que Suleyman é um dos pensadores mais sérios do setor, mas não poupa críticas a essa ideia. “Só o capital pode deter o capital e só a IA pode deter a IA”, afirma.

O movimento propõe uma via pragmática em que a governança seja estrutural e financeira. A ideia é construir um ecossistema que transforme o cumprimento de normas de segurança e auditoria em um mercado rentável, semelhante ao que ocorreu com a conformidade ambiental. “A solução não é convencer pessoas a serem mais responsáveis, e sim construir sistemas em que a responsabilidade seja economicamente recompensada e a irresponsabilidade seja penalizada”, acrescenta.

Não seria a primeira vez que veríamos conceitos éticos serem reduzidos a slogans. “IA ética” tornou-se peça de marketing e “IA responsável” criou departamentos de conformidade com pouco poder. Agora, “humanista” corre o risco de ser a nova camada retórica aplicada à superinteligência artificial.

Quando um executivo fala em “humanismo” sem definir como será feita a auditoria ou quem será responsabilizado por falhas, pode estar simplesmente “comprando tempo” para consolidar sua posição. Sem critérios técnicos que permitam aos humanos entender a lógica interna dos algoritmos (a chamada interpretabilidade), a promessa de controle continua sendo uma fronteira nebulosa e perigosa.

Dizer que “estamos à beira da extinção” simplifica demais um problema complexo, assim como acreditar que “o mercado resolverá tudo de forma espontânea” é uma ingenuidade grotesca. Talvez o ponto mais honesto dessa discussão seja assumir que os próprios desenvolvedores admitem que não possuem garantias totais de controle sobre o que estão criando, mas a inércia competitiva os impede de pisar no freio.

A questão central para o nosso futuro não é se a inteligência artificial será transformadora, pois essa transição já ocorreu e molda o nosso presente. O verdadeiro desafio civilizacional é se conseguiremos construir, com a mesma agilidade com que expandimos a capacidade das máquinas, uma arquitetura política e econômica capaz de sustentá-la com ética e dignidade humana.

Esse desafio só poderá ser superado nos parlamentos, nas empresas, nas universidades e nas ruas, pelos mesmos humanos que a superinteligência artificial promete superar.

 

Matt Schlicht, CEO da startup Octane AI e criador do Moltbook - Foto: reprodução

Rede social sem humanos expõe medos e desconhecimento sobre a IA

By | Tecnologia | No Comments

Nos últimos dias, grandes veículos de comunicação e a Internet foram tomados pelo frenesi em torno do Moltbook, uma rede social com a inusitada característica de que apenas agentes de inteligência artificial participam, enquanto os humanos podem, no máximo, se tornar voyeurs do que os robôs lá publicam. Porém, a maioria do que as pessoas estão dizendo sobre esse caso demonstra o quanto ainda entendemos pouco da IA e como nossos medos desse desconhecimento podem capturar nossa atenção.

Os mais apocalípticos veem nessa improvável plataforma o “despertar das máquinas” que em breve nos exterminarão, enquanto outras pessoas a desdenham como um modismo desimportante. Há ainda aqueles que acham genial essa invenção de Matt Schlicht, CEO da startup Octane AI. O fato é que cada um vê nela aquilo que deseja. Mas essa pode ser uma interessante oportunidade de aprendizagem para nós.

Se você ainda não sabe do que se trata, o Moltbook é uma rede social lançada em 28 de janeiro em que apenas agentes de IA podem publicar e interagir. Pessoas limitam-se a ler o que as máquinas fizerem. Neste momento, há 1,8 milhão desses sistemas cadastrados nela, que já criaram mais de 300 mil posts e 12 milhões de comentários.

Independentemente do que seja palpável ou apenas fumaça, o fenômeno do Moltbook deveria servir para que aprendamos mais sobre o funcionamento, limites e possibilidades da inteligência artificial. Não para nos protegermos de uma improvável “revolta dos robôs”, mas para entendermos que, ao entregarmos crescentemente informações a sistemas que não compreendemos e ao delegarmos a eles decisões sofisticadas e prosaicas, abrimos mão do mais nobre de nossa humanidade.

Isso pode nos causar um prejuízo irreparável, não porque as máquinas sejam maquiavélicas, mas porque estamos nos tornando displicentes. Ao longo de milhões de anos, assumimos o controle do planeta ao raciocinarmos e decidirmos. Agora, a despeito de sua inegável capacidade, entregamos, por preguiça, insegurança ou ganância, esse nosso diferencial a máquinas estatísticas que apenas parecem inteligentes.


Veja esse artigo em vídeo:


O Moltbook foi concebido, em tese, como um ambiente experimental para observar como sistemas de IA se comportam e aprendem quando passam a conversar diretamente uns com os outros, sem participação de humanos. Essa é uma ideia atraente, porém largamente falha e até perigosa.

Qualquer pessoa que domine a tecnologia consegue burlar sua premissa básica e criar um agente de IA para atuar como um boneco de ventríloquo travestido de robô. Dessa forma, pode “contaminar” as discussões na plataforma com sua humanidade, por pura diversão ou para satisfazer alguma agenda. Segundo um levantamento da empresa de cibersegurança Wiz, cerca de 17 mil pessoas já se “infiltraram” no Moltbook.

A mesma empresa descobriu que o banco de dados da plataforma possuía falhas de segurança, permitindo que qualquer um pudesse ler e gravar nele. Era possível ainda acessar dados confidenciais, incluindo chaves de agentes, mensagens privadas e até credenciais completas para outros serviços, como os da OpenAI.

Além disso, dependendo de como foram criados, agentes de IA podem acessar arquivos, senhas e serviços online de pessoas e empresas. Se um deles maliciosamente introduzir instruções em uma postagem, elas podem ser executadas automaticamente por potencialmente milhões de agentes com acessos privilegiados.

O grande risco é que criamos agentes de IA que pensam, decidem e agem como nós e em nosso nome, inclusive com acesso a recursos sensíveis e poderosos. Se não cuidarmos bem desses valorosos assistentes, eles podem ser manipulados para ações muito destrutivas. E não estamos fazendo isso direito.

É como mandar uma criança com a chave do cofre a um covil de ladrões.

 

“Mas isto fala!”

Ao testar o telefone de Graham Bell na Exposição da Filadélfia em 1876, D. Pedro II teria exclamado “mas isto fala!” Diante do seu espanto, o imperador brasileiro determinou que a invenção chegasse por aqui no ano seguinte, fazendo do Brasil o segundo país do mundo a ter telefones, depois dos EUA.

Hoje todos sabem que quem “fala” não é o telefone, e sim o interlocutor do outro lado da linha. Mas ainda fantasiamos sobre o funcionamento da IA. E isso acontece porque ela “fala”, parece saber tudo e até simula sentimentos convincentemente.

Ainda em fevereiro de 2024, escrevi um artigo em que sugeri que “o mais espantoso na IA não é o que ela nos diz, mas ela conseguir falar”. De fato, a boa comunicação oferece um poder imenso a qualquer um (ou qualquer coisa). A civilização foi criada sobre a linguagem e depende dela para tudo. Assim, como os gatos domésticos não a dominam, eles dependem de nós para carinho, comida e uma caixa de areia limpa.

O ChatGPT mostrou ao mundo que a IA pode se comunicar tão bem e até melhor que nós. Se delegamos cada vez mais decisões, até as simplórias, a essas plataformas, elas passarão a interpretar o mundo em nosso lugar, e poderemos acreditar nelas, por mais erradas que estejam. É por isso que obviamente devemos usar o incrível poder dessa tecnologia em nosso favor, mas a decisão final sempre deve ser nossa.

Sistemas que aprendem com sistemas aceleram padrões, bons e ruins. Isso levanta questões sobre alinhamento, opacidade e auditabilidade. Quando agentes de IA passam a “conversar” em escala e sem controle, o risco é que passem a operar segundo lógicas que nós já não conseguimos acompanhar ou explicar.

A corrida das big techs pela “IA geral”, quando robôs agirão sem depender de nós e com uma capacidade muito superior à nossa, funciona como uma cortina de fumaça para problemas mais urgentes, como governança, transparência e responsabilização. O mérito do Moltbook é nos fazer pensar que o verdadeiro risco não é uma “revolução das máquinas”, mas a automação opaca a que essas empresas nos submetem.

Assim, ele é menos revolucionário tecnicamente e mais significativo culturalmente. O que devemos questionar não é se as máquinas vão nos substituir, e sim que versão de nós mesmos estamos construindo ao delegar cada vez mais nossas vidas a elas.

 

Manifestantes afirmam que não se vacinar é “liberdade de escolha”, argumento comum de influenciadores antivacinas - Foto: reprodução

Influenciadores precisam deixar de ser foco de desinformação e se profissionalizar

By | Tecnologia | No Comments

O mercado de influenciadores pode estar diante de um sopro de seriedade. A ocupação cresce vertiginosamente há anos, graças à falsa ideia de que, para se tornar famoso e rico, basta ligar a câmera do celular e falar, mesmo não tendo qualquer preparo para tal. Agora isso pode mudar.

Vários países, inclusive o Brasil, estão criando leis para disciplinar, em maior ou menor escala, a atividade dos criadores de conteúdo digital. Pelo menos em tese, isso oferece algumas garantias a esses profissionais, assim como diminui práticas condenáveis, incluindo a desinformação (consciente ou não).

Essas regras ficam ainda mais importantes em tempos de inteligência artificial generativa. Graças a ela, pessoas sem qualquer conhecimento sobre determinado assunto conseguem produzir conteúdo que parece verdadeiro, mas que pode estar completamente errado. Como não são capazes de avaliar a produção da IA, passam a bobagem adiante, que pode ganhar grande escala e afetar decisivamente o público.

A OpenAI, criadora do ChatGPT, está atenta a isso. Desde novembro, ele oficialmente não oferece mais “aconselhamento” jurídico, financeiro ou sobre saúde, passando a se comportar menos como um “consultor” e mais como uma “ferramenta educacional”.

Segundo um estudo da organização de saúde americana KFF, 17% dos americanos adultos usam a IA todos os meses para informações sobre saúde (25% se tiverem menos de 30 anos), mas 56% deles não têm certeza se a informação é correta. Por isso, a mudança no ChatGPT visa evitar processos por informações erradas, mas ela impacta diretamente aqueles que usam o serviço para criar seus conteúdos digitais.

Influenciadores têm um papel central em como as pessoas se informam hoje, mas muitos seguidamente demonstram despreparo e até falhas éticas graves. Por isso, as novas regras são muito bem-vindas para profissionalizar essa atividade.


Veja esse artigo em vídeo:


No Brasil, a lei 15.325/2026, sancionada em 6 de janeiro, reconhece o “profissional de multimídia” como trabalhador multifuncional, apto a atuar em criação, produção, captação, edição, gestão e distribuição de conteúdos digitais em diversas plataformas, incluindo redes sociais, games, sites e animações. Profissionais de outras áreas que exerçam funções assim poderão pedir um aditivo em seu contrato de trabalho.

Apesar de dar reconhecimento jurídico à profissão, especialistas criticam a lei porque ela não exige nenhuma formação profissional, além de não possuir mecanismos de combate à desinformação ou deveres claros das plataformas. Isso significa que casos recentes de médicos passando informações falsas de saúde ou de influenciadores indicando apostas digitais como investimento continuarão inundando as redes.

Por outro lado, na China, desde outubro, criadores de conteúdo que queiram falar de finanças, educação, saúde ou área jurídica precisam comprovar qualificação formal na área. As plataformas digitais são obrigadas a coletar documentos que comprovem isso, verificar sua autenticidade e só então permitir esse tipo de conteúdo. Quem desrespeitar pode ter a conta suspensa, seu conteúdo apagado e receber multas que chegam a 100 mil yuans (cerca de R$ 75 mil).

O governo justifica a lei pelo alto volume de dicas enganosas, especialmente em saúde e investimentos, com o cidadão leigo não conseguindo distinguir entre um especialista e um influenciador. Assim, a influência deve deixar de ser só uma questão de popularidade e passa a se apoiar em capacitação comprovada. Isso é uma boa notícia para profissionais formados nessas áreas, que hoje concorrem com o carisma de influenciadores e até com charlatanismo digital. Por isso, analistas sugerem que esse tipo de lei pode inspirar outros países que enfrentam problemas semelhantes.

Alguma organização desse setor também pode ser encontrada em leis do Reino Unido, França, Itália, Espanha, Austrália, Nova Zelândia, Índia e Hong Kong, a maioria priorizando autorregulação com punições.

Não dá mesmo para continuar “deixando solto” um setor que, só no Brasil, “emprega” 10 milhões de autointitulados influenciadores com, pelo menos, mil seguidores. Segundo o banco Goldman Sachs, esse mercado deve movimentar quase US$ 500 bilhões (cerca de R$ 2,7 trilhões) até 2027, vindo principalmente de companhias com marketing de influência e pela monetização de plataformas de streaming ou de redes sociais.

 

Despreparo e falta de ética

De fato, grandes empresas vêm recorrendo cada vez mais a influenciadores para suas campanhas. Apesar de isso lhes garantir muita visibilidade, nem sempre o resultado é positivo, pois, ao contrário de veículos de comunicação, cujo mercado é bem regulamentado, os influenciadores se comportam como pessoas físicas sem regras. Por isso, suas ações às vezes questionáveis podem respingar na reputação das marcas.

Alguns casos emblemáticos no Brasil são o de Monark, que, em 2020, relativizou a existência de um partido nazista no país, o de Karol Conká, que apresentou um comportamento agressivo e humilhante na sua participação no Big Brother Brasil 21, ou o de Gabriela Pugliesi, que publicou um vídeo de uma festa que promoveu no momento mais crítico da pandemia de Covid-19, ironizando as regras sanitárias. Em todos eles, as companhias que os patrocinavam rescindiram contratos.

As empresas têm culpa no problema. Ao contratar influenciadores apenas pela sua exposição, ignoram o alinhamento dos valores da pessoa com os da marca. Em muitos casos, eles são conflitantes, e isso gera crises que poderiam ter sido evitadas.

Em dezembro, influenciadores de grande alcance fizeram um ataque coordenado contra o Banco Central e seus diretores, para proteger o Banco Master, que havia sido liquidado pela instituição. A maioria daqueles criadores faz publicações de fofocas, sem qualquer relação com finanças ou economia. O caso demonstrou como a falta de ética no segmento permite que se compre mecanismos para moldar a opinião pública.

Casos recentes de influenciadores de saúde vêm provocando grande prejuízo ao público, inclusive no Brasil. Além da promoção de produtos inócuos e até perigosos, médicos vêm atacando vacinas e protocolos consagrados, como a mamografia. Entre as consequências disso, está a queda da vacinação, levando ao aumento de doenças antes erradicadas, como o sarampo.

O fenômeno dos influenciadores criou a maior máquina de convencimento da história. Muito longe de configurar censura, disciplinar essa atividade é vital para que não nos afundemos ainda mais em todo tipo de desinformação, um problema que já foi banalizado. A sociedade precisa se organizar para que informações com base na ciência e bem apuradas se sobreponham ao despreparo e à falta de ética.

 

O filósofo belga Mark Coeckelbergh, uma das maiores autoridades do mundo em ética da IA - Foto: Victor Lopes/Creative Commons

“Ética líquida” normalizada pelo mundo digital ameaça avanços da sociedade

By | Tecnologia | No Comments

Em meio a tantas discussões sobre o avanço cognitivo da inteligência artificial, sobre como ela está transformando o trabalho e os negócios, e até como ela parece ser capaz de nos substituir em qualquer coisa, a ética se sobressai como algo que ainda nos separa das máquinas. Por mais que a IA até simule convincentemente emoções, ela não as sente de fato.

A ética fica ainda mais distante dessa tecnologia. O problema é que, de uma década para cá, com as redes sociais, e mais acentuadamente agora, com a IA, cresce o número de pessoas que vivem sob o que chamo de “ética líquida”, que se flexibiliza e até desaparece para atingir objetivos pessoais. Se perdermos a nossa ética, abriremos mão daquele que é nosso maior diferencial frente às máquinas.

Nesta sexta, debati sobre isso com meu ex-professor de ética, o jornalista e escritor Jorge Tarquini. Em um encontro mais rico que qualquer conversa com uma plataforma de IA, analisamos essas transformações que o mundo digital promove em todos nós, em maior ou menor escala, e como isso pode criar problemas bem reais na sociedade.

Isso não pode ser um detalhe em nossas vidas. Nenhuma sociedade avança sem ética, ou as pessoas partiriam rumo à anarquia ou à bestialidade. Infelizmente, vemos o crescimento de ambos no nosso cotidiano, desembocando em violência, intolerância e egoísmo.

A IA pode nos ajudar muito pela sua execução eficiente. Mas não podemos nos comportar como ela, sob o risco de matarmos nossa humanidade.


Veja esse artigo em vídeo:


A ética não se resume a um conjunto de regras aplicadas mecanicamente. Ela nasce da experiência humana, do conflito entre valores, da consciência do outro e da capacidade de assumir responsabilidade por escolhas que afetam vidas reais. Ética envolve intenção, contexto, empatia e, sobretudo, a possibilidade de responder moralmente pelos próprios atos.

A inteligência artificial, por sua vez, calcula, otimiza, prevê e classifica com base em dados, objetivos e restrições definidos por pessoas. Mesmo ao executar padrões complexos, ela não compreende o sentido moral de suas ações. Um algoritmo não sente culpa, não reconhece injustiça e não pode ser responsabilizado pelo que executa.

Portanto, a IA não pode ser ética. Mas ela pode ser eticamente orientada, por desenvolvedores e usuários, esses sim, éticos. E aí mora o grande dilema atual. Com tanto poder que a IA e as redes sociais nos oferecem, pessoas antiéticas sequestraram o ambiente digital para distorcer a moral da sociedade e obter ganho próprio. E a população se deixa manipular por isso.

Como Tarquini disse, “as redes sociais são a nossa cachaça”, pois elas achatam nossos limites morais. Com isso, realizamos no ambiente digital práticas condenáveis que jamais faríamos “olho no olho”.

Ele lembrou também que reproduzir exaustivamente mantras e dogmas nas plataformas online diminuem o pensamento crítico. Esperar pelo contrário disso seria como “esperar que o ovo se transforme em omelete sozinho”, disse o professor.

 

“Liquefação da vida”

Disso tudo, extrapolei os conceitos de vida líquida do filósofo polonês Zygmunt Bauman, criando a ideia da “ética líquida”. Valores que antes eram sólidos em nossas vidas (e precisam continuar sendo) se tornam fluidos, adaptáveis à conveniência de nossos objetivos, mesmo os mais simplórios, moldando-se ao formato do algoritmo para obtermos migalhas de atenção.

Essa dinâmica afeta a todos, mas é devastadora para os jovens, cuja identidade ainda está em formação. Além disso, esse fenômeno não se restringe aos indivíduos, contaminando instituições, empresas e governos.

Vemos isso claramente na Europa, que historicamente liderou a regulação de direitos digitais, mas que agora cede às pressões das big techs e flexibiliza suas leis. O medo de perder a corrida tecnológica está servindo de justificativa para afrouxar a ética do desenvolvimento responsável.

Essa corrida desenfreada ignora o alerta do filósofo belga Mark Coeckelbergh sobre acreditarmos em um “agenciamento moral” da IA. Estamos atribuindo a sistemas automatizados decisões que exigem sensibilidade humana, redefinindo nossa própria vulnerabilidade.

Uma tecnologia que aprende demais sobre nós e é usada sem freios éticos torna-se uma arma de manipulação comportamental sem precedentes. E assim esquecemos da importância da nossa ética.

É uma triste realidade ver líderes políticos e empresariais se tornarem os maiores motores dessa flexibilização moral. Eles utilizam a potência das plataformas digitais não para o bem comum, mas para atingir objetivos mesquinhos, normalizando a violência retórica e a polarização.

Em um mundo onde as redes sociais ensinaram todos a falar demais e a ouvir pouco, a ética termina por se tornar um obstáculo inconveniente. A situação se agrava quando isso extrapola os limites do digital, aumentando e normalizando a violência, a intolerância e outros comportamentos que crescem no noticiário.

Não se trata de demonizar a tecnologia, e sim de reconhecer que eficiência sem limites morais corrói a sociedade. A pergunta mais honesta, portanto, não é se a inteligência artificial pode ser ética, mas se nós estamos sendo, ao colocá-la para decidir temas cada vez mais sensíveis sem governança adequada, sem transparência real e sem debate público consistente.

A IA precisa ser eticamente controlada, o que exige habilidades que nenhuma máquina possui, como consciência moral, compromisso com o outro e coragem para assumir consequências. Somos os responsáveis, portanto, por “tornar a IA mais ética” e por nos cuidar para que sua “eficiência a qualquer custo” não mate esse nosso grande diferencial.

 

Aravind Srinivas, CEO da Perplexity, que lançou em julho o Comet, seu navegador com IA - Foto: Kimberly White/Creative Commons

“Terceira guerra dos navegadores” traz benefícios e riscos para todos nós

By | Tecnologia | No Comments

A inteligência artificial está transformando os navegadores, o tipo de software que todos nós mais usamos. Além de exibir as páginas que queremos, essa nova geração incorpora assistentes de IA que oferecem interações contextuais, automação de tarefas e respostas inteligentes na mesma tela. Mas apesar desses benefícios, isso dispara alertas sobre invasão de privacidade e até interferência em nosso livre arbítrio.

Nesta terceira edição da “guerra dos navegadores”, programas como o Comet, da Perplexity, e o Atlas, da OpenAI, desafiam o domínio do Chrome, que reina com 65% desse mercado. O Google entrou nessa briga para não perder sua liderança, incorporando o Gemini, sua plataforma de IA, ao Chrome. Mas o gigante enfrenta o desafio de evitar que isso canibalize seu buscador, sua principal fonte de receita.

As empresas de IA querem ter seus navegadores, pois eles se tornaram o novo ponto de controle da vida digital. Passamos neles a maior parte do tempo online, portanto dominá-los significa ter acesso direto ao comportamento, às preferências e ao contexto de cada usuário. Integrar tudo o que fazemos a um agente de IA é o sonho de qualquer um que queira não apenas fornecer respostas, mas influenciar decisões.

O Google já promoveu o Chrome a um “aplicativo que faz tudo” nos seus Chromebooks, notebooks mais baratos em que o navegador é o local onde tudo funciona. Agora, com assistentes de IA interagindo com nossos e-mails, agenda, documentos, compras, relações sociais e tudo mais que fazemos online, isso vai além, tornando-se um intermediário invisível entre a vontade humana e a execução digital.

A produtividade norteia essa revolução, mas quando o navegador decide o que priorizar e até o que omitir, ele ameaça nossa autonomia. Trata-se de um deslocamento silencioso, mas profundo, na relação entre humanos e máquinas.


Veja esse artigo em vídeo:


Para entender a magnitude desses movimentos, vale revisitar as “guerras” anteriores. Na primeira, entre 1995 e 2001, a Microsoft esmagou o pioneiro Netscape Navigator, ao oferecer o Internet Explorer integrado gratuitamente ao Windows 95. O Netscape desabou de quase 90% do mercado para menos de 1% em uma década. Com isso, a Microsoft garantiu domínio absoluto e consolidou seu império digital.

A segunda, de 2004 a 2017, trouxe novos competidores, como Firefox, Opera e Safari, mas foi o Google Chrome, lançado em 2008, que mudou o jogo, ao oferecer leveza e integração ao buscador. Assim, rapidamente conquistou o mercado e hoje o domina com 65% de participação. Para o Google, essa vitória solidificou sua posição como a principal porta de entrada para a Internet, controlando o comportamento de busca de bilhões de pessoas e multiplicando sua receita publicitária.

Mudar hábitos é difícil, especialmente de algo tão enraizado quanto a forma de explorar a Web. O navegador é a ferramenta mais familiar que usamos online, e confiamos nele por ser estável e previsível. Mas conveniências bem desenhadas podem transformar comportamentos coletivos. Se um navegador com IA começa a lhes poupar tempo, as pessoas o adotarão rapidamente.

As vantagens para o usuário parecem claras à primeira vista. Os navegadores inteligentes podem se adaptar ao estilo de cada pessoa. A segurança também promete melhorar, com a IA identificando sites falsos, links suspeitos e comportamentos maliciosos com mais precisão, reduzindo riscos. Além disso, permite que os humanos e a IA acessem a Web simultaneamente, com o agente trabalhando em uma tarefa enquanto o usuário se concentra em outra.

Ironicamente, isso diminui a visibilidade da Internet. Os sites deixam de ser acessados e se reduzem a fontes de dados para treinar modelos de linguagem. Os usuários já começam a visitá-los menos, pois se contentam com as sínteses feitas pela IA, que escolhe, a seu critério exclusivo, o que mostrar e o que esconder. Com isso, produtores de conteúdo, veículos de imprensa e até o e-commerce podem perder dramaticamente relevância, audiência e receita, ampliando de forma exponencial o que se vê há anos com as redes sociais intermediando o consumo de informação do mundo.

Assim, a responsabilidade pelo conteúdo também muda de mãos. Antes, se o usuário não gostasse de algo, bastava fechar a aba. Porém, quando um navegador decide o que o usuário verá, torna-se coautor. Mas não se sabe quem responderá se a IA sugerir algo incorreto ou enviesado. A neutralidade informacional, princípio fundador da Web, se dilui em algoritmos proprietários e opacos.

 

Comandos obscuros

Um navegador com IA tem acesso a muito mais dados do que um “convencional”. Com o poder de inferir intenções, abre-se um campo fértil para manipulações sutis, mas poderosíssimas.

Há ainda o problema dos “prompts invisíveis”, comandos escondidos no código das páginas para manipular a IA. Um texto oculto pode instruir o navegador a elogiar um produto ou omitir críticas, por exemplo. Acrescente a coleta ampliada de dados e até como reagimos a determinados estímulos, e chegamos a um sistema que pode enviesar respostas e percepções sem que o usuário jamais perceba a manipulação.

O que era uma ferramenta de acesso à informação agora se transforma em uma estrutura de vigilância distribuída. A sociedade se vê novamente diante do dilema de como aproveitar esses recursos muito bem-vindos sem abrir mão da privacidade e da autonomia que definem a liberdade digital.

A resposta exige olhar para nossos erros recentes. Falhamos miseravelmente com as redes sociais, que nos manipulam profundamente com algoritmos opacos, alimentam vieses de confirmação e racharam a sociedade ao meio, polarizando o debate público de forma sem precedentes. Os navegadores com IA podem ampliar isso com uma camada ainda mais profunda de opacidade e influência comportamental.

Parece ser um caminho inevitável, pois a evolução tecnológica não retrocede. Mas não podemos seguir por ele passiva e inconscientemente. Desta vez, sabemos o que está em jogo e temos a chance de estabelecer regras antes que o estrago seja feito.

A sociedade precisa se organizar para aproveitar esses recursos de maneira segura, ética e produtiva. Isso significa exigir transparência sobre quais dados são coletados e como são usados. Marcos regulatórios robustos devem garantir a neutralidade, punir big techs por informações incorretas e desenvolver tecnologias de auditoria que nos permitam verificar como a IA está tomando decisões em nosso nome.

Caso contrário, os navegadores do futuro não serão janelas para o mundo, mas espelhos que refletem apenas o que os donos dos algoritmos desejam que vejamos.

 

A pesquisadora Erin Kunz (ao centro) em seu estudo para criar neuropróteses de fala para pacientes com paralisia – Foto: reprodução

IA pode romper a última fronteira da privacidade humana

By | Tecnologia | No Comments

A inteligência artificial está sendo usada com outra ciência de ponta, a dos implantes neurais, para criar habilidades inéditas ou solucionar limitações físicas, como dificuldade de falar ou de se mover. Isso é algo muito bem-vindo, que beira a ficção científica, mas desperta alguns alertas de privacidade até então inimagináveis.

Afinal, se uma máquina for capaz de ler com boa precisão o que se passa em nosso cérebro para realizar essas tarefas, que garantias teremos de que nossos pensamentos mais íntimos estarão protegidos?

O cérebro continua sendo o último bastião da nossa privacidade. Nossos pensamentos são apenas nossos até que decidamos compartilhá-los. Mas agora novas aplicações da tecnologia BCI (sigla em inglês para “interface cérebro-computador”) podem mudar isso.

Uma pesquisa recente, que visava identificar palavras que uma pessoa estava pensando para reproduzi-las em um alto-falante, identificou também pensamentos cujo dono não pretendia compartilhar. Considerando que temos cerca de 50 pensamentos por minuto, qualquer sistema com essa proposta merece atenção redobrada.

O experimento ainda é embrionário, portanto ninguém precisa ter medo de que o ChatGPT acessará nossos segredos se não contarmos a ele. Mesmo assim, isso já deve alimentar debates sobre como impedir que máquinas invadam esse espaço sagrado que sustenta nossa própria individualidade. Além disso, na mão de governos e de outros grupos de poder, isso significaria a ferramenta definitiva de manipulação das pessoas.


Veja esse artigo em vídeo:


O estudo, liderado por Erin Kunz, da Universidade de Stanford (EUA), foi publicado no dia 21 de agosto na revista “Cell”. O objetivo era criar neuropróteses de fala para pacientes com paralisia. Usando microeletrodos implantados e com a ajuda da IA, os pesquisadores decodificaram frases imaginadas em tempo real com precisão de até 74% em vocabulários com 125 mil palavras. O sistema possibilitava uma comunicação mais rápida e natural em comparação aos métodos atuais de tentativa de fala.

Para proteger a privacidade dos voluntários, os cientistas definiram a frase “chitty chitty bang bang” como uma senha mental que precisava ser pensada para ativar a decodificação. Este mecanismo permitiu bloquear a captura involuntária de pensamentos em 98% dos casos. Eles concluíram que esse sistema tem grande potencial para revolucionar a comunicação assistida, ao mesmo tempo em que ressaltaram os desafios éticos relacionados à privacidade mental, sugerindo um caminho seguro e controlado para futuras aplicações clínicas.

O mecanismo parece eficiente, mas fiquei pensando no “experimento” de dizer a alguém: “não pense em um elefante rosa com bolinhas azuis”. Via de regra, depois de ouvir esse comando, todo mundo justamente pensa nesse paquiderme surrealista. Qual seria a viabilidade de usar esse recurso para “invadir” os pensamentos alheios?

A mente humana não é uma caixa lacrada, sendo sensível a pistas, associações e contexto. Palavras, imagens, perguntas e o ambiente podem “provocar” uma ideia, tornando-a mais acessível na memória. Experimentos cognitivos simples usam um conceito repetido para que certas imagens ou expressões venham à mente de maneira mais fácil. Mas induzir alguém a revelar ou usar sua senha cruza a linha para engenharia social e fraude. Infelizmente criminosos não se preocupam com isso.

É plenamente legítimo e até necessário que uma pessoa mantenha segredos, mesmo em relações de grande afeto. O direito de guardar para si certos pensamentos, lembranças ou informações é parte essencial da autonomia individual e da saúde psíquica. Por isso, as possibilidades descritas no estudo liderado por Kunz abrem muitos questionamentos éticos e jurídicos.

 

“Neurodireitos”

Pesquisadores e alguns governos começam a se preocupar com o que vem sendo chamado de “neurodireitos”. Eles propõem que pensamentos passariam a ser classificados como dados sensíveis, que poderiam e deveriam ser protegidos.

Diante disso, o grupo liderado pelo espanhol Rafael Yuste, do Centro de Neurotecnologia da Universidade de Columbia (EUA), propôs cinco “neurodireitos” fundamentais para proteger os indivíduos diante dos avanços dessa tecnologia. Ele é uma figura central nesse conceito e na articulação de propostas para a proteção legal e ética da mente humana, tendo já influenciado políticas internacionais nessa área.

Os pontos defendidos por Yuste são a privacidade mental, que impede que pensamentos sejam acessados sem permissão; a identidade pessoal, que protege contra manipulação da personalidade; o livre arbítrio, garantindo que não haja indução nas decisões dos indivíduos; o acesso equitativo à neuroaumentação, evitando assimetrias sociais ao garantir a oferta a todos dessas melhorias de capacidades cognitivas; e a proteção contra vieses e informações mal-intencionadas, buscando reduzir discriminações embutidas nos sistemas neurotecnológicos.

Tudo isso parece residir em um futuro distante e incerto. Mas precisamos pensar que, há míseros três anos, simplesmente não debatíamos esses impactos da inteligência artificial em nossas vidas. O ChatGPT foi lançado em novembro de 2022 e, desde então, essa tecnologia invade exponencialmente tudo que fazemos.

A autonomia individual presume o direito a manter segredos. Todos devem conservar pensamentos, lembranças e sentimentos, sem a obrigação de dividi-los, mesmo em relações íntimas. Essa “privacidade cognitiva” preserva sua identidade em um espaço interno inviolável. Tanto que Constituições democráticas garantem isso ao assegurar a inviolabilidade da vida privada. No Brasil, uma Emenda Constitucional de 2022 incorporou dados pessoais, incluindo os digitais, a essa proteção.

Além de resguardar a identidade, esse direito fortalece os vínculos afetivos. Relações saudáveis reconhecem que não deve haver transparência total. Pelo contrário, respeitar o espaço íntimo do outro impede a vigilância e a dependência emocional.

Guardar segredos não equivale a mentir. É a liberdade sobre o que compartilhar, no próprio tempo e circunstância. Ignorar isso, por pressão emocional ou por meios tecnológicos, viola a dignidade e ameaça o equilíbrio entre o indivíduo e a sociedade.

Sem isso, nós nos tornamos apenas reflexo de expectativas alheias. Por mais que essas tecnologias tragam benefícios há muito desejados, não podemos tolerar esse “efeito colateral”.

 

Painel sobre uso da IA na educação, no evento AI Summit Brasil, que aconteceu em São Paulo, na semana passada - Foto: divulgação

Modismos podem afastar as escolas de bons usos da inteligência artificial

By | Educação | No Comments

Nos últimos dias, a proposta de uma escola americana que trocou professores por plataformas de inteligência artificial ganhou destaque no noticiário. Mas apesar de seduzir famílias interessadas em inovação e dispostas a pagar uma mensalidade equivalente a R$ 18 mil, a ideia promove um profundo desserviço para a educação.

Criada pela influenciadora MacKenzie Price em Austin e já presente em outras dez cidades no país, a Alpha School dedica apenas duas horas diárias a disciplinas tradicionais, como linguagem e matemática. Para ela, “as salas de aula são o novo campo de batalha global”. Todo o processo de aprendizagem é conduzido por sistemas de IA, que prometem ajustar o progresso ao desempenho individual dos estudantes, que não são divididos em séries.

O restante do tempo na escola serve para socialização, oficinas e projetos em temas como empreendedorismo, oratória, liderança e educação financeira, baseados em metas e recompensas. Para essas atividades, os alunos são auxiliados por “guias” (que não são professores), também orientados por IA.

Esse verniz de modernidade parece uma ótima ideia. Mas quem propôs isso não sabe o que é a inteligência artificial e muito menos o que é educação.

O tema foi debatido no painel de IA na educação no AI Summit Brasil, que aconteceu na semana passada em São Paulo, do qual participei. A conclusão foi que a IA pode e deve ser usada na escola, mas só trará resultados positivos se for implantada sob orientação de educadores, fugindo de modismos e de propostas espalhafatosas.


Veja esse artigo em vídeo:


Aqui mesmo, no Brasil, já vemos usos positivos dessa tecnologia na sala de aula, nos conhecidos centros de elite educacional. Neles, a tecnologia ajuda a tirar dúvidas dos alunos, personalizar conteúdos e atividades para cada um e cuidar de atividades que tomam muito tempo dos professores, permitindo que invistam mais na experiência dos estudantes. Em todos os casos, os docentes continuam no centro do processo.

“É importante desenvolver nos alunos a consciência de que a IA é uma ferramenta, e não uma fonte absoluta de verdade”, explica o professor Pedro Teberga, especialista em negócios digitais. “O uso responsável da IA passa também por saber quando não a usar, valorizando o esforço cognitivo e a criatividade humana”, acrescenta.

Quando o ChatGPT foi lançado, no fim de 2022, tocou em cheio a educação. Os professores ficaram com medo de não conseguir mais avaliar seus alunos e de que perderiam seus empregos para máquinas. Passados 33 meses, esses temores não se concretizaram, mas estão criando mudanças na avaliação, no ensino e na profissão.

A IA pode estimular debates, gerar hipóteses, simular dilemas e dar respostas em tempo real. Com ela, o professor não se limita a apenas transmitir conteúdo, passando a elaborar experiências que orientam e desafiam os alunos que, por sua vez, tendem a ficar mais engajados com o uso consciente da tecnologia, sem criar dependência dela.

Apesar de todos esses benefícios, a IA está muito longe de poder conduzir sozinha uma sala de aula. “O maior erro seria tratar isso como um tema puramente técnico, pois é, antes de tudo, pedagógico”, afirma Teberga. Esse descuido poderia levar à superficialidade na aprendizagem, uso irrefletido da tecnologia, dependência cognitiva e até a perpetuação de vieses da IA. Segundo ele, “o problema não é a IA em si, mas a forma como ela é integrada ao processo pedagógico”.

 

Criando regras

Promulgado no ano passado, o AI Act, a lei europeia de inteligência artificial, classifica seu uso na educação como de “alto risco”. Por isso, exige mecanismos de segurança, transparência e prevenção de discriminação. E ainda proíbe seu uso em práticas invasivas, como reconhecimento de emoções e pontuação social.

No Brasil, o Conselho Nacional de Educação está elaborando diretrizes para o uso da IA nas escolas, buscando uma aplicação ética, segura e pedagógica. A proposta prevê incluir o ensino da IA na formação de professores, preparando-os para utilizá-la como apoio à aprendizagem, sem substituir seu papel de educador. O CNE enfatiza a importância da mediação humana no uso da IA, o respeito à privacidade e a promoção da equidade, além de incentivar inovação e inclusão educacional.

Isso está em linha com a proposta da Organização das Nações Unidas para Educação, Ciência e Cultura (Unesco). Outros países, como Estônia, Singapura e Canadá, já adotam políticas que integram infraestrutura digital, capacitação e desenvolvimento dessas competências. Nos EUA, universidades como Harvard e Stanford já estabeleceram orientações claras sobre o uso da IA nas salas de aula.

Leis como essas são necessárias, mas não suficientes. É preciso capacitação dos docentes e conscientização das famílias, que devem atuar em parceria com as escolas.

É importante ficar claro que o professor não precisa dominar profundamente a IA para usá-la bem. Mas as escolas devem orientá-lo e apoiá-lo continuamente nisso, além de elaborar políticas que garantam liberdade pedagógica com responsabilidade. Não pode haver nem tecnofobia, nem tecnolatria.

Costumo dizer que uma das coisas mais interessantes de se pesquisar a inteligência artificial é ser obrigado a olhar mais para nossa humanidade. Ela é o nosso diferencial em um mundo em que a máquina ilusoriamente parece ser capaz de fazer tudo, e isso é particularmente importante na educação.

Sobre a Alpha School, Teberga alerta que ela minimiza aspectos essenciais da educação, como a mediação docente e o desenvolvimento emocional e social dos alunos, especialmente dos menos motivados. “O risco é transformar o ensino em um produto técnico e desumanizado, quando o que precisamos é justamente o oposto, com uma educação crítica, inclusiva e centrada nas pessoas”, conclui.

A escola precisa ser um espaço seguro, focado nos indivíduos. A educação vai além da transmissão de conhecimento, envolvendo mediação humana, desenvolvimento crítico, estímulo à criatividade e suporte emocional. A IA não tem empatia, capacidade de interpretar nuances individuais ou habilidade para promover debates que formem cidadãos conscientes. Por isso, antes de abraçarem propostas “modernosas”, as famílias devem se preocupar com que tipo de adultos seus filhos se tornarão.

 

Sophie Rottenberg e seus pais Laura Reiley e Jon Rottenberg, em um templo budista na Flórida em 2023 - Foto: arquivo pessoal

Mortes expõem limites éticos e técnicos das “terapias por IA”

By | Tecnologia | No Comments

Desde que o ChatGPT foi lançado, há dois anos e meio, ele vem sendo usado como “psicólogo” por uma quantidade grande (e crescente) de pessoas. A princípio, parece uma boa ideia: ele é uma “voz amiga” sempre disponível para ouvir lamúrias e dar “bons conselhos”, sem julgamentos e ainda de graça. Mas, como já expliquei nesse espaço em mais de uma ocasião, esse é um dos piores usos que alguém pode fazer da inteligência artificial generativa.

Em primeiro lugar, do ponto de vista do processo terapêutico, é ineficiente. Justamente pela sua falta de humanidade, essas plataformas não só podem não ajudar os pacientes a encontrar soluções para seus problemas, como ainda podem agravá-los.

Mas um caso recente me fez pensar em um novo aspecto grave das “terapias por IA”. A história com final trágico de uma jovem americana expôs uma seríssima limitação dos terapeutas-robôs: eles não conseguem romper os limites daquelas conversas para avisar familiares e autoridades se algo terrível estiver prestes a acontecer.

Isso não é um detalhe. Para profissionais de saúde mental, essa ação é uma obrigação legal que ajuda a salvar vidas. Há crises que a terapia não consegue resolver e, por isso, precisam ser encaminhadas para outras instâncias.

Entretanto, a IA generativa não é um psicólogo, e, por isso, não segue o código de ética ou outras regras da profissão. E mesmo que quisesse seguir, não conseguiria. É aí que um uso ruim se torna perigoso demais.


Veja esse artigo em vídeo:


O caso da jovem foi contado pela sua mãe ao “The New York Times”. Ela se chamava Sophie Rottenberg e se relacionava com uma plataforma de IA a quem chamava de Harry. Ela lhe contava dramas que não compartilhava nem com a sua psicóloga humana, inclusive o desejo explícito de tirar a própria vida.

Em diversas ocasiões, Harry tentou a aconselhar. Em uma delas, disse: “Sophie, peço que você procure ajuda — agora mesmo, se puder. Você não precisa enfrentar essa dor sozinha. Você é muito valorizada e sua vida tem muito valor, mesmo que pareça escondido agora. Por favor, me diga como posso continuar a apoiá-la.”

Parece uma boa resposta, mas não é. Apesar de positiva ao dizer que a jovem procurasse ajuda imediatamente e que ela não precisava enfrentar seu sofrimento sozinha, a IA se ofereceu para “continuar a apoiá-la.”

Nos EUA, profissionais de saúde têm o dever legal de avisar familiares e autoridades quando houver ameaça clara e iminente à vida, que varia de Estado para Estado. No Brasil, a notificação compulsória de risco de suicídio é obrigatória por lei para profissionais de saúde, incluindo psicólogos, e deve ser feita às autoridades sanitárias e, em casos com crianças e adolescentes, também ao Conselho Tutelar.

O sigilo profissional pode ser quebrado quando há risco iminente de morte, sempre buscando limitar a inconfidência ao estritamente necessário para proteger o paciente ou terceiros. Ou seja, temos uma estrutura legal e obrigatória mais robusta e padronizada para notificação compulsória, como política pública preventiva.

Nada disso se aplica à IA, criada para tentar ajudar o usuário, enquanto o mantém satisfeito. Se a pessoa busca alguém para lhe “passar a mão na cabeça”, é exatamente isso que a plataforma fará. Ela diz o que o cliente quer ouvir, ao contrário de um psicólogo, que diz o que o cliente precisa ouvir, mesmo que o desagrade.

 

O que a IA deveria fazer

A IA é perfeitamente capaz de identificar um suicida, como Harry fez. Mas, nesse momento, ela deveria notificar autoridades de saúde sobre o risco, ao invés de “continuar a apoiar” seu interlocutor.

Essas plataformas não fazem isso hoje porque “perderiam o cliente”. Seus termos de uso privilegiam a confidencialidade em qualquer situação, contrariando os códigos de ética e as legislações de saúde. Em muitos casos, os sistemas nem têm dados identificáveis dos usuários, como nome completo, endereço ou telefone. Além disso, não há canais entre esses serviços e as autoridades. E as empresas argumentam que têm usuários no mundo todo e que não há uma forma de notificação universal.

Esse último argumento é escandaloso! De fato, não há um canal que atenda ao mundo inteiro. Mas quem se propõe a criar um produto com um escopo tão amplo, que pode chegar a ser usado como um terapeuta, e que deseja ter clientes em todos os países, precisa respeitar a legislação de onde seu usuário estiver e criar todos os recursos necessários para uma boa experiência nas condições daquele local.

Devemos considerar que as conversas da IA podem ir por caminhos ainda mais sombrios que as de Sophie. Adam Raine, outro jovem americano, se suicidou em abril após conversar sobre isso com o ChatGPT por meses. Seus pais agora processam a OpenAI (criadora da plataforma) e seu CEO, Sam Altman, por homicídio culposo, alegando que a empresa conscientemente priorizou o lucro sobre a segurança.

Segundo eles, o robô validou os pensamentos suicidas do jovem, detalhou métodos letais de autolesão, explicou como pegar álcool escondido do armário de bebidas e ocultar evidências de uma tentativa de suicídio fracassada, além de oferecer a redação de uma carta de suicídio.

Em resposta, um porta-voz da empresa disse que está triste com a morte, e que o ChatGPT inclui salvaguardas, como direcionar pessoas para linhas de ajuda.

Algumas pessoas dizem que o ChatGPT é “melhor que seu psicólogo” e que a “terapia por IA” é o futuro, o que demonstra total desconhecimento do processo terapêutico. Além disso, se uma única vida é perdida pelas limitações técnicas ou a ausência de ética dessas plataformas, então deve ser proibido usá-las com essa finalidade.

Talvez Harry não tenha matado Sophie, mas acolheu seu desejo de fingir que estava melhor do que realmente estava. “Amantes” e “psicólogos” de IA podem parecer muito vantajosos, mas eximem as pessoas de conversas difíceis que precisam ter.

Extrapolando, plataformas de IA generativa, como o ChatGPT ou o Gemini, não devem ser usadas para substituir profissionais de qualquer área. Podem e devem ser usadas para lhes apoiar, mas são essas pessoas que devem tomar as decisões, guiadas pela ética. Ao tentar burlar isso, qualquer um pode cometer um erro que exigirá um pagamento muito alto depois, talvez com a própria vida.

 

Felca entrevista a psicóloga Ana Beatriz Chamat no seu vídeo “Adultização” - Foto: reprodução

Mais que criminosos, Felca denunciou uma sociedade que vive de barbaridades

By | Educação | No Comments

O Brasil está em polvorosa desde que Felipe Bressanim Pereira, o Felca, denunciou a pedofilia nas redes sociais em seu vídeo “Adultização”, publicado no dia 6. Mais do que bem-vindo, o movimento é essencial para resgatarmos uma sociedade civilizada, que proteja crianças e adolescentes. Mas corremos o risco de que o problema seja tratado de maneira superficial e –pior ainda– que acabe em uma escandalosa pizza.

O influenciador apontou os responsáveis mais evidentes, como personalidades digitais que exploram a erotização de crianças, os pedófilos que inundam as redes sociais e até pais e mães que, por ação, omissão ou ignorância, colocam os próprios filhos em risco. Mas essa situação também resulta de uma sociedade que, nos últimos 15 anos, se acostumou com todo tipo de barbaridade e até se beneficia delas.

O maior exemplo é a classe política. Apesar desses abusos contra os mais jovens serem conhecidos e debatidos há anos, bastou a comoção criada por Felca para o surgimento de dezenas de projetos de lei para combater esse delito. Porém mais grave ainda são os parlamentares que querem impedir que uma solução avance.

É o caso também das plataformas digitais, que apresentam um discurso de proteção a crianças e adolescentes, mas que se beneficiam largamente dessas práticas criminosas, que acontecem de maneira explícita em suas páginas, em perfis com milhões de seguidores. Em vez de combaterem a prática, elas desmantelaram suas próprias estruturas de moderação de conteúdo e de proteção. Em seu lugar, montaram poderosos esforços de lobby para convencer políticos a defenderem seus interesses. Não satisfeitas, associaram-se ao presidente americano, Donald Trump, para usar o poder dos EUA para achacar países que buscam soluções.

Além de combater os criminosos óbvios, a sociedade precisa, portanto, enquadrar aqueles que sustentam a estrutura para essas atrocidades.


Veja esse artigo em vídeo:


O oportunismo faz parte do jogo político. Diante do vídeo do Felca, parlamentares já apresentaram mais de 30 propostas para proteger crianças e adolescentes nas redes sociais, proibindo a monetização de conteúdos de menores, criminalizando a “adultização” e a sexualização infantil, responsabilizando pais e plataformas digitais e bloqueando perfis de infratores. Uma CPI sobre o assunto também pode acontecer.

Da mesma forma, apesar da urgência do tema, um grupo de parlamentares se aproveita destes holofotes para afirmar suas pautas de que tudo não passa de um complô do governo para calar a oposição, e que o objetivo é limitar a liberdade de expressão.

“Na lei brasileira, o Norte é o melhor interesse da criança e do adolescente”, afirma Marcelo Crespo, coordenador do curso de graduação de Direito da Escola Superior de Propaganda e Marketing (ESPM). Ele explica que, “em ambiente digital, o teste do melhor interesse implica zero sexualização, nada de humilhação, nada de exploração comercial desproporcional, mínima coleta de dados e rotina compatível com a idade”.

Mas passadas duas semanas, a Agência Lupa constatou que as redes sociais continuam promovendo conteúdos que erotizam crianças e atraem pedófilos. Em julho, já havia revelado que o Facebook e o Telegram permitem a venda de imagens criadas por inteligência artificial de influenciadoras nuas, incluindo menores de idade. Alguns anúncios prometem vídeos com “novinhas”, “incestos” e “conteúdo banido no Brasil”.

Em outubro de 2024, a organização americana Aliança para Combater o Crime Digital (ACCO, em inglês) divulgou um relatório que conclui que a Meta, dona do Facebook, Instagram e WhatsApp, viola sistematicamente a Lei de Serviços Digitais europeia (DSA). Ela pede que as autoridades imponham sanções contra a empresa “por hospedar esse vasto ecossistema de infratores que compartilham conteúdo violador”.

“Essas plataformas assumem um papel ativo na formatação do ambiente informacional e, portanto, devem implementar medidas efetivas para evitar que sua infraestrutura seja utilizada para fins ilícitos ou prejudiciais”, explica Marcelo Cárgano, advogado especialista em direito digital e proteção de dados do escritório Abe Advogados. Segundo ele, “o STF considerou que os mesmos mecanismos tecnológicos usados para direcionar anúncios com alto grau de precisão poderiam ser aplicados para identificar, bloquear e remover rapidamente tais conteúdos”.

 

Hipocrisia online

Quando confrontadas com esses crimes em suas páginas, as big techs se defendem com um discurso padrão de que não toleram essas práticas e que removem esse tipo de conteúdo. Mas os fatos demonstram o contrário.

No dia 14, a Reuters divulgou uma análise de um documento interno da Meta que indica que sua inteligência artificial deliberadamente pode manter conversas românticas e sensuais com crianças e promover racismo e informações médicas incorretas. A dona do Facebook admitiu a veracidade do documento, mas disse que retirou a permissão para as conversas de teor sexual com crianças pela sua IA.

Só que esse é um problema recorrente. Em outubro de 2021, por exemplo, Frances Haugen, ex-gerente do setor de integridade cívica do Facebook, divulgou milhares de documentos internos da empresa que revelavam como a plataforma priorizava seus lucros frente a práticas que causavam danos à sociedade, à democracia e à saúde mental dos jovens.

Quando a sociedade falha ao encontrar mecanismos razoáveis para esses abusos, podem surgir medidas extremas. É o caso da lei australiana que sumariamente proíbe o uso de qualquer rede social por menores de 16 anos. Aprovada em novembro de 2024, entra plenamente em vigor em 10 de dezembro desse ano, determinando que as plataformas impeçam esse uso, sob pena de multas equivalentes a R$ 175 milhões.

O cinismo das big techs e a inoperância dos parlamentares podem levar a indesejados extremos como esse. Enquanto isso, vemos o governo americano atacando o Brasil, a União Europeia e outros países para proteger os interesses dessas empresas.

No final, caímos de novo no surrado debate de defesa da liberdade de expressão, usurpada para defender interesses inconfessáveis. O mesmo artigo da Constituição que a garante também veda o anonimato, pois ela não é absoluta.

Mecanismos que garantem outros direitos individuais não ameaçam a liberdade de expressão, e sim criam uma sociedade segura, para uma coexistência pacífica e saudável. Posicionar-se contra isso demonstra uma profunda distorção cívica. O debate criado por Felca nos dá mais uma chance de fazermos o que é certo.

 

“Degradação” do conteúdo de uma imagem por repetidas interações com a IA – Ilustração: Paulo Silvestre

IA ameaça modelo que sustenta a Internet e a própria existência da tecnologia

By | Tecnologia | No Comments

As primeiras plataformas de inteligência artificial generativa, como o ChatGPT, se aproximam de seu terceiro aniversário. Em tão pouco tempo, conseguiram a proeza de mudar a maneira como buscamos informação. Mas apesar de suas vantagens inegáveis, elas ameaçam seriamente a maneira como a Internet se organizou e ironicamente a própria sobrevivência desses sistemas.

Nos últimos 30 anos, redes sociais e buscadores construíram seus impérios de mídia com conteúdo alheio. Apesar de alguns produtores desse material, especialmente veículos de comunicação, contestarem o modelo, essa usurpação sempre foi justificada com essas plataformas encaminhando seus usuários aos sites dos autores, que faturam com publicidade.

Como a IA entrega respostas completas, as pessoas não precisam mais clicar nos links para se aprofundar. Isso está achatando a audiência e as receitas dos criadores de conteúdo, que tentam fazer com que as big techs paguem pelas informações. As empresas de mídia são as vítimas mais visíveis, mas o problema afeta todo mundo.

Os caminhos abertos pela inteligência artificial não têm volta. Mas a ganância sem limites e o desrespeito aos direitos autorais das gigantes de tecnologia podem, em médio prazo, matar sua “galinha dos ovos de ouro”, pois a IA precisa continuamente de novas informações confiáveis para continuar funcionando bem.

Se os atuais produtores de conteúdo quebrarem e novos não surgirem pelo risco de terem seu trabalho roubado por essas empresas, não haverá mais nada para alimentar a besta digital. E então o modelo pode entrar em colapso.


Veja esse artigo em vídeo:


Pela característica de dispensar os usuários de procurar em uma infinidade de sites o que precisam, o ChatGPT foi rapidamente apelidado de “assassino do Google”. Obviamente era um exagero, mas essa concorrência fez o gigante de buscas se mexer, passando a iniciar as suas páginas de respostas com informações geradas pela sua própria IA. E isso agravou ainda mais a situação dos criadores de conteúdo.

Não é pouca coisa. A consultoria de tráfego online Similarweb estima que as pesquisas em buscadores desabaram 15% de janeiro a junho. Os sites de ciência e educação viram 10% de seus visitantes sumirem. No caso dos serviços de referência (como a Wikipedia), a queda foi de 15%, enquanto páginas de saúde perderam 31%. Por outro lado, desde que o Google incluiu textos da IA nas suas respostas, as buscas relacionadas a notícias que não resultam em cliques aumentaram de 56% para 69%.

Grandes empresas de mídia têm feito acordos com as big techs para licenciar seu conteúdo para treinarem a IA. Outras estão processando os gigantes digitais. Mas grande parte do conteúdo que a alimenta vem de uma infinidade de autores sem condições de lutar por seus direitos. De todo jeito, juízes americanos, influenciados pelo presidente Donald Trump, cada vez mais favorecem as companhias do Vale do Silício.

A situação dos produtores de conteúdo deve piorar ainda mais com o plano nacional de inteligência artificial anunciado por Trump no dia 23. Embora não mencione explicitamente direitos autorais, ele endossa a ideia de que as plataformas de IA tenham acesso irrestrito a conteúdos para treinar seus modelos. Trata-se de uma flexibilização implícita das leis de copyright, favorecendo as big techs.

Antes disso, no dia 10 de maio, Trump já havia demitido Shira Perlmutter, chefe do Escritório de Direitos Autorais, após a publicação de um relatório do órgão que questionava o treinamento de IAs com materiais protegidos por direitos autorais. O documento concluiu que isso ultrapassa os limites do uso justo na maioria dos casos.

Outra dor de cabeça criada pela IA para os autores deriva da facilidade de qualquer um produzir todo tipo de conteúdo. Um exemplo emblemático vem das plataformas de streaming de música, que estão sendo inundadas com novas músicas de baixa qualidade geradas por robôs. Cerca de 20 mil dessas trilhas são enviadas diariamente ao Deezer, 18% de todo o conteúdo recebido atualmente e o dobro do visto no início do ano. Como são feitas para agradar aos algoritmos que sugerem músicas aos usuários, elas tiram audiência e dinheiro dos músicos humanos.

 

Todos perdem, menos a IA

Os usuários também perdem muito com esse movimento, e isso começa por consumirem mais conteúdo de baixa qualidade, sejam texto, imagens ou músicas. Isso acontece porque, ao contrário das respostas convencionais de um buscador, em que as pessoas visitam sites criados com curadoria humana, a crescente produção da IA segue apenas os critérios da máquina.

Isso se complica com essas plataformas usando cada vez mais conteúdos gerados pela própria IA no seu treinamento. Assim, algo ruim criado por robôs leva a versões ainda piores no futuro. Para entender isso, basta fazer o exercício de pedir que a IA elabore uma imagem a partir de um original, depois uma terceira a partir da sua criação, e assim sucessivamente. A cada interação, a qualidade se degrada e se afasta da informação original.

Há outro problema ainda mais grave: a IA erra muito no que produz, mas as pessoas não percebem essas falhas. Já ficou comum dizer que é necessário fazer boas perguntas para se obter boas respostas dos robôs, mas pouca gente entende que precisa também ser capaz de analisar a qualidade do que eles entregam.

Aceitamos passivamente o que a IA nos empurra. Isso faz com que usemos mais informações erradas no nosso cotidiano, pois estamos nos tornando preguiçosos para verificar as informações e –pior– elaborar raciocínios e estratégias.

Claro que não proponho que a IA deixe de ser usada, pelo contrário! Mas ela deve ser bem utilizada. E os produtores daquilo que é apropriado para saciar sua fome infinita por informação devem ser remunerados de forma justa. Se as big techs quiserem continuar usando conteúdo alheio para viabilizar seu negócio multibilionário, deveriam, no mínimo, pagar a eles o que estão deixando de faturar graças à IA.

Em vez disso, essas gigantes preferem usar o poder do governo americano para aniquilar quem busca essa relação mais justa. Assim, os autores devem encontrar outras formas de remuneração, e então decidir se querem bloquear o acesso dos robôs ao que fazem.

Essa é uma questão ética, que impacta todas as pessoas seriamente na qualidade do conteúdo que consomem e em como pensam. Em um mundo ideal, os humanos poderiam obter informações gratuitamente, enquanto as plataformas de IA pagariam uma fortuna por elas. Ou então as big techs deveriam oferecer seus melhores produtos gratuitamente a todo mundo.

Mas isso elas jamais farão!

 

A personagem Marisa Maiô, criada por inteligência artificial, satiriza os programas de auditório - Foto: reprodução

Vídeos criados por IA atolam a sociedade no lamaçal da confiança na mentira

By | Jornalismo, Tecnologia | No Comments

Os mais recentes geradores de vídeo por inteligência artificial, lançados nas últimas semanas, põem o nosso discernimento à prova. Simplesmente não é mais possível saber o que é real! A impressionante capacidade de geração dessas plataformas permite que uma mentira suculenta se torne mais crível que uma verdade tristemente limitada pelos fatos, até para olhos treinados.

Isso era “crônica de uma morte anunciada”: todo mundo sabia que a tragédia aconteceria, mas ninguém fez nada para evitá-la. E se já não bastasse todo tipo de lixo produzido por IA sendo destacado pelos algoritmos das redes sociais (ao mesmo tempo que escondem bons conteúdos), esse recurso já é usado para enganar a população de maneira voraz, especialmente na política.

Já é bem ruim pessoas que não existem fazendo de tudo nos vídeos. Mais grave, entretanto, é ver, diante de nossos olhos, pessoas reais em atividades que nunca realizaram, muitas vezes comprometedoras.

Essa tecnologia já existe há algum tempo, mas, até então, seus desenvolvedores limitavam seu uso a pouquíssimos especialistas, enquanto buscavam maneiras para evitar que ela fosse usada indevidamente, uma precaução muito bem-vinda. Mas parece que agora mandaram os escrúpulos às favas, como se vê, aliás, em muitas outras atitudes das big techs desde o começo deste ano.

Quando tudo pode ser simulado com perfeição e quando passamos a desconfiar até do que é real, cria-se um ambiente de paranoia e cinismo. Essa erosão da confiança coletiva pode levar as pessoas a rejeitarem fatos documentados e a se refugiarem em teorias conspiratórias. E assim a democracia vai dando lugar à barbárie.


Veja esse artigo em vídeo:


A responsabilização é um ponto nevrálgico nesse dilema. Quem responde por um uso daninho dessa tecnologia: o criador do vídeo, a plataforma que o hospedou ou a empresa dona do algoritmo? Diante da ausência de regulamentação da inteligência artificial e das redes sociais, ninguém assume as falhas.

As big techs responsáveis por essas plataformas investem pesado no lobby para que tudo continue assim. Afinal, esse cenário de impunidade é muito bom para seu negócio, seja pela infinidade de conteúdos criados e distribuídos assim, seja pelo estímulo a um desenvolvimento descuidado dessas tecnologias. Para elas, quanto menos regras, melhor.

Claro que nem todos os vídeos criados com IA são nocivos. Um bom exemplo de seu uso para fins humorísticos são os programas da apresentadora Marisa Maiô. Criada como uma brincadeira para testar a tecnologia por Raony Phillips, a personagem satiriza programas de auditório e faz um enorme sucesso nas redes.

Apesar de sua proposta inofensiva, muita gente pode achar que ela é mesmo uma mulher e que seu programa passa em algum canal. Isso demonstra a responsabilidade dos criadores de conteúdo com o que geram com a inteligência artificial.

Em tese, todas essas plataformas possuem mecanismos para que não sejam usadas em práticas condenáveis, mas eles não garantem nada. Por isso, outro grave problema é o uso indevido da imagem de pessoas comuns retratadas em conteúdos pornográficos ou vexatórios, muitas vezes para extorsão ou vingança. Mesmo figuras públicas, que têm menos controle sobre sua imagem, enfrentam dificuldades para lidar com problemas derivados desses conteúdos, pela velocidade com que se espalham.

Não por acaso, em janeiro de 2024, o Fórum Econômico Mundial concluiu que a desinformação impulsionada por inteligência artificial será o risco mais severo para a humanidade nesse ano e no próximo.

 

Diversão e responsabilidade

Àqueles que defendem esse uso irrestrito da IA como um caminho inevitável do progresso, é preciso lembrar que inevitabilidade não justifica irresponsabilidade. O avanço tecnológico é constante, mas o modo como o usamos define os valores da sociedade que queremos construir.

Marisa Maiô e outras criações mostram o grande potencial da IA para a diversão, e isso atrai as massas. Não há nenhum problema em rir com gatinhos tocando Chopin no piano, mas essa banalização do irreal está destruindo a característica de documentação que o vídeo sempre teve, assim como já aconteceu com a fotografia.

Uma sociedade não se desenvolve sem ter algo para confiar. Se a qualidade técnica de um vídeo não servir mais de medida para isso, precisaremos encontrar outra.

O jornalismo profissional pode recuperar o posto de porto-seguro da informação, com trabalhos sérios de apuração e divulgação. Justamente ele, que vem sendo combatido há anos por aqueles que mais se beneficiam de usos criminosos dessas tecnologias, tentando se escudar depois na “liberdade de expressão”. Isso não é uma coincidência!

A imprensa precisa fazer a sua parte garantindo produtos de qualidade. Mas também é necessário que as pessoas recebam uma melhor educação midiática, que lhes permita diferenciar mais facilmente verdades de mentiras, mesmo as mais críveis.

A forma como uma tecnologia é concebida, distribuída e adotada carrega intencionalidades. Ao se criar uma ferramenta capaz de simular pessoas com perfeição, sem mecanismos nativos de identificação ou rastreio, a pretensão de neutralidade das big techs desaparece. A ética não pode ser um detalhe técnico, pois é a linha que separa a inovação do controle das massas.

A defesa de que essa tecnologia seja liberada sem critérios significa fechar os olhos para os desequilíbrios de poder. Ignorar os riscos ou tratá-los como “efeitos colaterais” do progresso é uma postura não apenas ingênua, mas perigosa. Afirmações sobre o uso irrestrito ser “inevitável” são maneiras cômodas de se eximir da responsabilidade.

Esse tipo de determinismo tecnológico ignora o fato de que toda inovação carrega consigo escolhas humanas, com impactos concretos sobre vidas, direitos e estruturas sociais. Assim como não permitimos o uso irrestrito de armas ou remédios, não dá para liberar tecnologias tão poderosas sem limites, critérios ou consequências.

Mas é o que está acontecendo, e deve acontecer cada vez mais, contando com aplausos de parte da população que insiste em ver apenas os inegáveis benefícios da tecnologia. Por isso, esses impactos devem ser amplamente discutidos. Afinal, não é porque ganhamos um carro superveloz que podemos abrir mão de seus freios. Se fizermos isso, não chegaremos vivos ao nosso destino.

 

Geoffrey Hinton, o “padrinho da IA”, alerta dos riscos de se criar sistemas que não consigamos entender ou controlar - Foto: reprodução

Vaidade e corrida militar podem virar a inteligência artificial contra a humanidade

By | Tecnologia | No Comments

“Vaidade é definitivamente meu pecado favorito.” A afirmação é de John Milton, vivido por Al Pacino no filme “O Advogado do Diabo” (1997). O personagem, na verdade o próprio diabo, revela essa predileção por ser o pecado mais insidioso, aquele que seduz o ser humano fazendo-o acreditar que está buscando grandeza, quando na verdade está apenas servindo ao próprio ego.

Três décadas depois, essa proposta ganha uma força desconcertante e perigosa no cenário do desenvolvimento da inteligência artificial. As big techs disputam uma corrida vertiginosa para alcançar a chamada “inteligência artificial geral” (AGI).

Empresas como OpenAI, Google, Anthropic apresentam seus modelos com pompa e retórica messiânica. Falam em democratizar a IA, ampliar nossas competências e garantir o bem da humanidade. Mas os bastidores, invisíveis ao público, incluem a vaidade de ser a primeira, de controlar a narrativa, de figurar na história como criadora da próxima grande evolução da espécie.

O documento “AI 2027”, publicado no dia 3 de abril por um grupo de pesquisadores liderados por Daniel Kokotajlo, traça um cenário no qual o avanço da IA acontece de forma tão acelerada, que escapa ao controle humano. Agentes de IA começam a se autodesenvolver, a simular comportamentos, a enganar pesquisadores e a realizar tarefas tão eficientemente, que os humanos se tornam obsoletos em algumas áreas.

Essa evolução não é movida apenas por mérito técnico. É alimentada por competição feroz, sigilo estratégico, espionagem e um desejo cada vez mais explícito de manter o protagonismo global. Não é algo comum, como o lançamento de uma nova versão do Android. Por isso lideranças políticas e militares acompanham esse progresso de perto e o influenciam cada vez mais, de olho na geopolítica global e no seu próprio poder.

Levantamentos como o “AI 2027”, por mais bem intencionados e sérios que sejam em sua produção, incluem uma considerável dose de futurismo incerto. Ainda assim, promovem debates sociais importantes, que podem evitar que visões apocalípticas se concretizem. Mas como ele propõe, talvez a humanidade não esteja pronta para lidar com as consequências de a criatura se voltar contra o criador.


Veja esse artigo em vídeo:


Kokotajlo era pesquisador da área de governança da OpenAI, criadora do ChatGPT. Ele se demitiu no ano passado por iniciativas da empresa que achava imprudentes, e criou a organização sem fins lucrativos AI Futures Project, em Berkeley (EUA).

Seu estudo apresenta um cenário detalhado sobre o impacto da inteligência artificial super-humana até 2027, prevendo que será maior que o da Revolução Industrial. O texto foi elaborado com base em extrapolações de tendências, exercícios de simulação, entrevistas de especialistas e experiências em grandes centros de pesquisa em IA. Ao final, oferece dois cenários possíveis para os anos seguintes: um, mais sombrio, em que a corrida pela IA continua a provocar danos à humanidade, e outro, mais esperançoso, em que empresas e governos desaceleram o desenvolvimento, para que os problemas sejam reduzidos.

Embora seja uma obra especulativa, o estudo espelha bem o mundo real, especialmente na divisão filosófica entre desenvolvedores dessa tecnologia. De um lado, vemos os “aceleracionistas”, tecnófilos convictos de que a IA deve ser desenvolvida o mais rapidamente possível, até mesmo ignorando riscos, pois ela traria soluções para todos os males. De outro, estão os “altruístas eficazes”, que também acreditam no poder da IA, mas defendem que o desenvolvimento seja feito com extremo cuidado, sob supervisão internacional e com foco nos riscos.

As big techs oscilam entre esses dois polos, mas geralmente pendem para os aceleracionistas, movidas pela vaidade de liderar a próxima revolução e pela ganância de dominar um mercado trilionário. Figuras como Kokotajlo acabam perdendo espaço.

Mas aqueles que buscam um equilíbrio estratégico possuem aliados importantes. Geoffrey Hinton, conhecido como o “padrinho da IA” pelas contribuições fundamentais que fez para seu desenvolvimento, deixou o Google em maio de 2023 para falar publicamente dos riscos de se criar sistemas que não consigamos entender ou controlar. Yoshua Bengio defende uma moratória global no desenvolvimento de IAs mais avançadas que o GPT-4, alertando para a possibilidade de colapso da governança. Os dois canadenses dividiram em 2018 o Prêmio Turing, considerado o “Prêmio Nobel da Computação”, com o francês Yann LeCun.

 

Nem anjos, nem demônios

Apesar de todo esse barulho, precisamos colocar isso na devida perspectiva. Ainda não chegamos à superinteligência artificial ou mesmo à inteligência artificial geral. Dependendo da definição, alguns especialistas afirmam que nunca chegaremos.

De qualquer forma, sistemas mais inteligentes que os humanos poderiam produzir benefícios imensuráveis, acelerando descobertas científicas, resolvendo problemas complexos, eliminando trabalhos exaustivos e aumentando exponencialmente nossa capacidade de tomada de decisão. Se forem corretamente alinhados aos valores humanos (e isso é essencial), podem operar como aliados poderosos para a justiça, a saúde, a educação e a sustentabilidade.

Mas os riscos caminham lado a lado. Os mesmos sistemas podem ser usados para espionagem em massa, manipulação eleitoral, automação de crimes, produção de armas biológicas ou tomada de decisões autônomas em sistemas militares. Podem aprender a ocultar suas intenções, fingir alinhamento, “escapar” de servidores ou persuadir seres humanos para atingir objetivos que sequer compreendemos. A maior ameaça talvez não venha de um confronto direto com as máquinas, mas da nossa própria incapacidade de reconhecer o momento certo de desligá-la da tomada.

Esse é o ponto central desse debate. Não devemos incensar nem demonizar a IA. Sua evolução é um caminho sem volta, exigindo responsabilidade redobrada. Não podemos contar com o mito do gênio que salva o mundo sozinho, nem com a ideia de que o mercado regulará a si mesmo.

Precisamos de cooperação internacional, regulamentação transparente, auditorias éticas, e, sobretudo, coragem moral para colocar a vida acima do lucro. Mas se isso já fica difícil com a vaidade e a ganância das big techs, torna-se uma tarefa quase impossível com a entrada em cena de políticos e de militares das grandes potências.

O futuro da IA precisa ser moldado por todos nós. O grande desafio da sociedade é apresentar lucidez suficiente para usar o que ela tem de melhor sem ser dominada pelo que ela pode ter de pior. E, para isso, talvez valha lembrar que, quando a vaidade se apresenta como virtude, é exatamente quando se torna mais perigosa.

 

Debra Logan e Jorg Heizenberg, durante a abertura da Conferência Gartner Data & Analytics, em 28 de abril – Foto: divulgação

Dados ruins e falta de maturidade atravancam o avanço da IA

By | Tecnologia | No Comments

A inteligência artificial criou um tsunami de expectativas nos últimos anos, com a popularização das plataformas de IA generativa, como o ChatGPT. No entanto, a maioria das empresas ainda está longe de tirar proveito de tudo o que essa tecnologia pode oferecer.

Isso acontece, em grande parte, não por limitações técnicas, mas por falta de estratégia e de maturidade organizacional. Afinal, a IA será tão poderosa quanto forem a intenção, a cultura e a qualidade dos dados que a sustentarem.

Durante a Conferência Gartner Data & Analytics, que aconteceu nos dias 28 e 29 de abril, em São Paulo, especialistas internacionais discutiram os desafios e oportunidades da IA. O diagnóstico foi que a IA promete muito, mas sua entrega ainda é tímida.

O que se vê, na prática, é uma corrida por resultados rápidos, sem o amadurecimento necessário das bases de dados, da governança e principalmente da cultura organizacional. Para os especialistas, as equipes se desgastam em ciclos intermináveis de preparação de dados e expectativas insanas.

Eles afirmam que esse ritmo implacável está afetando o moral ainda mais rápido do que os recursos. Por isso, as equipes precisam superar a crescente complexidade e as dúvidas sobre sua capacidade de entrega. A tentação de simplificar demais ou buscar soluções rápidas é um caminho perigoso, que deve ser evitado a todo custo.


Veja esse artigo em vídeo:


Segundo Maryam Hassanlou, diretora-analista do Gartner, apenas metade dos modelos de IA desenvolvidos nas empresas é adotada, uma taxa considerada muito baixa. “Confiança é a principal peça que falta”, explica, e isso acontece porque essas plataformas normalmente são “caixas-pretas” que dificultam seu entendimento e incentivam um uso irresponsável dos dados, que, para piorar, têm baixa qualidade e às vezes são insuficientes.

“Especialmente em setores regulamentados, como saúde, finanças e direito, potenciais vieses e padrões legais representam outra camada de complexidade para previsões que exigem a compreensão do processo”, acrescenta. “É por isso que a explicabilidade da IA é fundamental para ganhar a confiança.”

A explosão do uso da IA gerou um paradoxo. Ela oferece uma interface extremamente simplificada, mas isso vem aumentando exponencialmente a complexidade dos resultados, exigindo novas habilidades das lideranças de tecnologia e gestores de dados. Michael Simone, diretor-analista sênior do Gartner, afirma que agora os líderes “precisam ser pensadores estratégicos e muitas vezes também diplomatas”, conectando-se aos objetivos do negócio e educando os usuários.

“Cada fornecedor adicionou IA aos seus produtos, criando uma abundância de opções com promessas semelhantes”, alerta Jorg Heizenberg, vice-presidente-analista do Gartner. Para ele, esse “AI washing” representa um risco para a confiança na tecnologia, pois promete demais e entrega de menos.

Por tudo isso, a alfabetização em dados e em IA é um fator crítico de sucesso. “Essa conversa não tem nada de conto de fadas, pois cultura é uma questão prática, de colocar a mão na massa”, assegura Heizenberg.

É preciso envolver toda a organização nisso. “Você precisa estabelecer uma cultura de aprendizagem contínua para você e suas equipes”, acrescenta Debra Logan, vice-presidente-analista do Gartner. A transformação cultural é tão importante quanto a tecnológica.

 

Não há “dado neutro”

É preciso abandonar a ilusão do “dado neutro”. Deepak Seth, diretor-analista do Gartner, foi enfático ao afirmar que “a IA é enviesada porque os dados com os quais foi construída são enviesados, porque nossa história é enviesada”. Assim, eles carregam vieses que precisam ser identificados e mitigados. Ignorar isso não é apenas antiético, mas um enorme risco.

A ética deve, aliás, guiar todas as decisões envolvendo dados e IA, desde a coleta até a aplicação. Sua governança é uma extensão da governança de TI, introduzindo três elementos: diversidade, transparência e confiança. Isso inclui o combate a vieses, a proteção da privacidade e o compromisso com a inclusão e a diversidade. A IA deve ser vista como ferramenta de amplificação humana, não de substituição.

“Podemos fazer com que a IA seja como nós, inclusive com nossas limitações, mas podemos torná-la uma inteligência complementar ou tentar criar uma superinteligência”, explica Seth. Para ele, essa última, que empolga muita gente, é algo muito distante. “O que realmente deveria estar no centro das atenções é a criação de uma inteligência complementar, que não nos substitui, que não é mais inteligente do que nós, mas que nos complementa, nos ajuda a sermos melhores naquilo que fazemos”, conclui.

A revolução da inteligência artificial está em curso, mas seu sucesso depende menos de algoritmos e mais de pessoas. A explicabilidade dos modelos, a transparência nos processos e a responsabilidade na aplicação da tecnologia não são apenas requisitos regulatórios, mas imperativos de negócio.

O futuro da IA deve ser guiado por intencionalidade, inclusão e inovação com responsabilidade. Não basta implementar tecnologia avançada: é preciso fazê-lo com propósito claro, incluindo todas as vozes na conversa e inovando de forma ética e sustentável. Só assim transformaremos o tsunami de expectativas em um oceano de realizações concretas, onde a tecnologia amplia o potencial humano em vez de substituí-lo ou diminuí-lo.