agentes de IA

Matt Schlicht, CEO da startup Octane AI e criador do Moltbook - Foto: reprodução

Rede social sem humanos expõe medos e desconhecimento sobre a IA

By | Tecnologia | No Comments

Nos últimos dias, grandes veículos de comunicação e a Internet foram tomados pelo frenesi em torno do Moltbook, uma rede social com a inusitada característica de que apenas agentes de inteligência artificial participam, enquanto os humanos podem, no máximo, se tornar voyeurs do que os robôs lá publicam. Porém, a maioria do que as pessoas estão dizendo sobre esse caso demonstra o quanto ainda entendemos pouco da IA e como nossos medos desse desconhecimento podem capturar nossa atenção.

Os mais apocalípticos veem nessa improvável plataforma o “despertar das máquinas” que em breve nos exterminarão, enquanto outras pessoas a desdenham como um modismo desimportante. Há ainda aqueles que acham genial essa invenção de Matt Schlicht, CEO da startup Octane AI. O fato é que cada um vê nela aquilo que deseja. Mas essa pode ser uma interessante oportunidade de aprendizagem para nós.

Se você ainda não sabe do que se trata, o Moltbook é uma rede social lançada em 28 de janeiro em que apenas agentes de IA podem publicar e interagir. Pessoas limitam-se a ler o que as máquinas fizerem. Neste momento, há 1,8 milhão desses sistemas cadastrados nela, que já criaram mais de 300 mil posts e 12 milhões de comentários.

Independentemente do que seja palpável ou apenas fumaça, o fenômeno do Moltbook deveria servir para que aprendamos mais sobre o funcionamento, limites e possibilidades da inteligência artificial. Não para nos protegermos de uma improvável “revolta dos robôs”, mas para entendermos que, ao entregarmos crescentemente informações a sistemas que não compreendemos e ao delegarmos a eles decisões sofisticadas e prosaicas, abrimos mão do mais nobre de nossa humanidade.

Isso pode nos causar um prejuízo irreparável, não porque as máquinas sejam maquiavélicas, mas porque estamos nos tornando displicentes. Ao longo de milhões de anos, assumimos o controle do planeta ao raciocinarmos e decidirmos. Agora, a despeito de sua inegável capacidade, entregamos, por preguiça, insegurança ou ganância, esse nosso diferencial a máquinas estatísticas que apenas parecem inteligentes.


Veja esse artigo em vídeo:


O Moltbook foi concebido, em tese, como um ambiente experimental para observar como sistemas de IA se comportam e aprendem quando passam a conversar diretamente uns com os outros, sem participação de humanos. Essa é uma ideia atraente, porém largamente falha e até perigosa.

Qualquer pessoa que domine a tecnologia consegue burlar sua premissa básica e criar um agente de IA para atuar como um boneco de ventríloquo travestido de robô. Dessa forma, pode “contaminar” as discussões na plataforma com sua humanidade, por pura diversão ou para satisfazer alguma agenda. Segundo um levantamento da empresa de cibersegurança Wiz, cerca de 17 mil pessoas já se “infiltraram” no Moltbook.

A mesma empresa descobriu que o banco de dados da plataforma possuía falhas de segurança, permitindo que qualquer um pudesse ler e gravar nele. Era possível ainda acessar dados confidenciais, incluindo chaves de agentes, mensagens privadas e até credenciais completas para outros serviços, como os da OpenAI.

Além disso, dependendo de como foram criados, agentes de IA podem acessar arquivos, senhas e serviços online de pessoas e empresas. Se um deles maliciosamente introduzir instruções em uma postagem, elas podem ser executadas automaticamente por potencialmente milhões de agentes com acessos privilegiados.

O grande risco é que criamos agentes de IA que pensam, decidem e agem como nós e em nosso nome, inclusive com acesso a recursos sensíveis e poderosos. Se não cuidarmos bem desses valorosos assistentes, eles podem ser manipulados para ações muito destrutivas. E não estamos fazendo isso direito.

É como mandar uma criança com a chave do cofre a um covil de ladrões.

 

“Mas isto fala!”

Ao testar o telefone de Graham Bell na Exposição da Filadélfia em 1876, D. Pedro II teria exclamado “mas isto fala!” Diante do seu espanto, o imperador brasileiro determinou que a invenção chegasse por aqui no ano seguinte, fazendo do Brasil o segundo país do mundo a ter telefones, depois dos EUA.

Hoje todos sabem que quem “fala” não é o telefone, e sim o interlocutor do outro lado da linha. Mas ainda fantasiamos sobre o funcionamento da IA. E isso acontece porque ela “fala”, parece saber tudo e até simula sentimentos convincentemente.

Ainda em fevereiro de 2024, escrevi um artigo em que sugeri que “o mais espantoso na IA não é o que ela nos diz, mas ela conseguir falar”. De fato, a boa comunicação oferece um poder imenso a qualquer um (ou qualquer coisa). A civilização foi criada sobre a linguagem e depende dela para tudo. Assim, como os gatos domésticos não a dominam, eles dependem de nós para carinho, comida e uma caixa de areia limpa.

O ChatGPT mostrou ao mundo que a IA pode se comunicar tão bem e até melhor que nós. Se delegamos cada vez mais decisões, até as simplórias, a essas plataformas, elas passarão a interpretar o mundo em nosso lugar, e poderemos acreditar nelas, por mais erradas que estejam. É por isso que obviamente devemos usar o incrível poder dessa tecnologia em nosso favor, mas a decisão final sempre deve ser nossa.

Sistemas que aprendem com sistemas aceleram padrões, bons e ruins. Isso levanta questões sobre alinhamento, opacidade e auditabilidade. Quando agentes de IA passam a “conversar” em escala e sem controle, o risco é que passem a operar segundo lógicas que nós já não conseguimos acompanhar ou explicar.

A corrida das big techs pela “IA geral”, quando robôs agirão sem depender de nós e com uma capacidade muito superior à nossa, funciona como uma cortina de fumaça para problemas mais urgentes, como governança, transparência e responsabilização. O mérito do Moltbook é nos fazer pensar que o verdadeiro risco não é uma “revolução das máquinas”, mas a automação opaca a que essas empresas nos submetem.

Assim, ele é menos revolucionário tecnicamente e mais significativo culturalmente. O que devemos questionar não é se as máquinas vão nos substituir, e sim que versão de nós mesmos estamos construindo ao delegar cada vez mais nossas vidas a elas.

 

Thiago Viola, diretor de Inteligência Artificial, Dados e Automação da IBM Brasil, durante o AI Forum – Foto: Paulo Silvestre

Enquanto superinteligência artificial continua na ficção, agentes tentam ampliar poderes da IA

By | Tecnologia | No Comments

Desde o fim de 2024, ouço líderes de grandes empresas de tecnologia dizer que 2025 seria “o ano dos agentes de inteligência artificial”. Estamos agora no meio do ano, e esses sistemas começam a mostrar mais força, inclusive com o surgimento de plataformas que integram diversos deles para realizar tarefas mais complexas. Resta saber quanto disso cumpre a promessa e quanto é apenas marketing tecnológico, e quais os benefícios e os riscos de seu uso.

Agentes são sistemas potencializados pela IA capazes de realizar tarefas com pouca ou nenhuma supervisão humana. Ao contrário de plataformas populares, como o ChatGPT, podem funcionar de maneira contínua, monitorando o ambiente sem necessidade de comandos para cada ação, e aprendendo a cada interação.

Essa autonomia representa um grande benefício, mas também acende alguns alertas. Especialmente com a chegada da inteligência artificial generativa e suas conhecidas “alucinações”, a operação de agentes não supervisionados pode incluir erros sérios nos negócios. E com diversos deles trabalhando de maneira orquestrada, um agente “mal-comportado” pode corromper outros, até mesmo disseminando vieses.

O discurso das big techs se apoia em investimentos bilionários e em sua corrida tecnológica. Mas é preciso separar o que já é realidade do que ainda é expectativa. O levantamento CEO Study, publicado pelo Institute for Business Value da IBM, mostra que, enquanto 61% das empresas no mundo que usam IA em sua operação já implementaram agentes, no Brasil esse índice é de 67%. Até o fim do ano, a taxa global deve chegar a 85%.

No entanto, a autonomia desses agentes ainda é limitada. O que se vê, na prática, é uma adoção para tarefas específicas e repetitivas, enquanto usos mais sofisticados ainda exigem supervisão humana e governança robusta.

Assim, passada metade do “ano dos agentes”, eles avançam, mas de uma maneira não tão exuberante. A desejada autonomia plena, com tomada de decisões complexas e adaptação a contextos ambíguos, segue como objetivo em desenvolvimento.


Veja esse artigo em vídeo:


Na quinta passada, participei do IBM AI Forum, em São Paulo, onde conversei com Thiago Viola (foto), diretor de Inteligência Artificial, Dados e Automação da IBM Brasil. Segundo ele, o crescimento dos agentes está migrando para fluxos mais sofisticados, com agentes especializados e independentes atuando em conjunto.

Para que isso seja possível, plataformas como o IBM Watsonx Orchestrate e a SAP Joule atuam como interfaces amigáveis, que recebem as demandas dos usuários em linguagem natural. Elas então acionam os agentes necessários, mesmo de diferentes fornecedores, para realizar a tarefa. As respostas, até as mais complexas, chegam consolidadas e também em bom português.

Isso é um grande avanço. Assim, o usuário fica livre de interfaces às vezes demasiadamente complexas de sistemas como ERPs e CRMs, ou de aplicações antigas. Os agentes extraem e consolidam todas as informações necessárias.

“É como se o sistema legado virasse uma base de conhecimento, e o agente de IA passa, então, a criar essa camada de uso, sem que o usuário precise tocar no sistema”, explica Viola. “O agente terá essa conexão criada e esse ‘self learning’ de fazer esse recorte, entender e projetar isso como resposta para o usuário.”

A orquestração de agentes também traz riscos. A chance de ciberataques cresce, com esses sistemas podendo se tornar vetores para extração de dados e invasões. A complexidade de coordenação aumenta exponencialmente com mais agentes, elevando o risco de conflitos (comportamentos contraditórios) e conluios (cooperação indesejada) entre os agentes, podendo levar à perda da tarefa determinada.

“Se você tiver um modelo que está enviesado e você o combina com outros, a tendência é que isso comece a gerar um ‘drift’, ele começa a sair do foco”, detalha Viola. Para mitigar esses riscos, seres humanos precisam usar ferramentas para calibrar alucinações, rastrear tomadas de decisão e auditar comportamentos da IA.

 

IA mais fácil

Essas plataformas de orquestração de agentes devem ainda ajudar a resolver a baixa utilização dos dados empresariais pela IA, outro ponto crítico para melhores decisões de negócios. Estima-se que 99% deles ainda não sejam usados, por estarem armazenados em sistemas legados, não estruturados ou de baixa qualidade.

Mas vele lembrar que a IA não toma boas decisões com dados ruins. Como já foi dito nesse espaço várias vezes, o primeiro passo para uma boa IA é o investimento em governança de dados, com curadoria, normalização e atualização constante.

Com essas novas interfaces, a criação de agentes de IA também se torna cada vez mais fácil, sem a necessidade de programadores experientes. Ainda assim, isso não elimina a necessidade de conhecimento do negócio, de gestão de riscos e de uma cultura organizacional preparada para lidar com tecnologias autônomas.

Por isso, a narrativa de que os agentes de IA redefinirão o trabalho não implica substituição em massa, mas sim uma mudança fundamental em como trabalhamos. A realidade de sua adoção em 2025 é a de equipes híbridas, em que agentes lidam com a rotina e o volume, liberando os humanos para o pensamento crítico, a criatividade e a tomada de decisões complexas, que não devem ser totalmente automatizadas.

Essa tecnologia, embora avançada, ainda não atingiu a maturidade para operar sem uma significativa intervenção humana, especialmente em cenários de alta criticidade ou complexidade. Por isso, os inegáveis benefícios oferecidos pelos agentes não podem justificar que abandonemos nossa responsabilidade ou autonomia. Só assim poderão cumprir seu papel como aliados e não como riscos ocultos disfarçados de eficiência.

O “hype” em torno dos agentes de IA serve como um catalisador para investimentos e experimentação, impulsionando a inovação. A tendência é de uma integração cada vez mais profunda da IA com os fluxos de trabalho, com a evolução de agentes mais especializados e multimodais.

O sucesso dependerá de as organizações se adaptarem cultural e operacionalmente, transformando o potencial da IA em resultados sustentáveis e garantindo que a tecnologia sirva como um motor de desenvolvimento inclusivo e responsável, sem dispensar os seres humanos.