Nos últimos dias, grandes veículos de comunicação e a Internet foram tomados pelo frenesi em torno do Moltbook, uma rede social com a inusitada característica de que apenas agentes de inteligência artificial participam, enquanto os humanos podem, no máximo, se tornar voyeurs do que os robôs lá publicam. Porém, a maioria do que as pessoas estão dizendo sobre esse caso demonstra o quanto ainda entendemos pouco da IA e como nossos medos desse desconhecimento podem capturar nossa atenção.
Os mais apocalípticos veem nessa improvável plataforma o “despertar das máquinas” que em breve nos exterminarão, enquanto outras pessoas a desdenham como um modismo desimportante. Há ainda aqueles que acham genial essa invenção de Matt Schlicht, CEO da startup Octane AI. O fato é que cada um vê nela aquilo que deseja. Mas essa pode ser uma interessante oportunidade de aprendizagem para nós.
Se você ainda não sabe do que se trata, o Moltbook é uma rede social lançada em 28 de janeiro em que apenas agentes de IA podem publicar e interagir. Pessoas limitam-se a ler o que as máquinas fizerem. Neste momento, há 1,8 milhão desses sistemas cadastrados nela, que já criaram mais de 300 mil posts e 12 milhões de comentários.
Independentemente do que seja palpável ou apenas fumaça, o fenômeno do Moltbook deveria servir para que aprendamos mais sobre o funcionamento, limites e possibilidades da inteligência artificial. Não para nos protegermos de uma improvável “revolta dos robôs”, mas para entendermos que, ao entregarmos crescentemente informações a sistemas que não compreendemos e ao delegarmos a eles decisões sofisticadas e prosaicas, abrimos mão do mais nobre de nossa humanidade.
Isso pode nos causar um prejuízo irreparável, não porque as máquinas sejam maquiavélicas, mas porque estamos nos tornando displicentes. Ao longo de milhões de anos, assumimos o controle do planeta ao raciocinarmos e decidirmos. Agora, a despeito de sua inegável capacidade, entregamos, por preguiça, insegurança ou ganância, esse nosso diferencial a máquinas estatísticas que apenas parecem inteligentes.
Veja esse artigo em vídeo:
O Moltbook foi concebido, em tese, como um ambiente experimental para observar como sistemas de IA se comportam e aprendem quando passam a conversar diretamente uns com os outros, sem participação de humanos. Essa é uma ideia atraente, porém largamente falha e até perigosa.
Qualquer pessoa que domine a tecnologia consegue burlar sua premissa básica e criar um agente de IA para atuar como um boneco de ventríloquo travestido de robô. Dessa forma, pode “contaminar” as discussões na plataforma com sua humanidade, por pura diversão ou para satisfazer alguma agenda. Segundo um levantamento da empresa de cibersegurança Wiz, cerca de 17 mil pessoas já se “infiltraram” no Moltbook.
- Assine gratuitamente minha newsletter sobre IA, experiência do cliente, mídia e transformação digital
- Inscreva-se no meu podcast (escolha a plataforma): Spotify, Deezer, Apple Podcasts ou Soundcloud
A mesma empresa descobriu que o banco de dados da plataforma possuía falhas de segurança, permitindo que qualquer um pudesse ler e gravar nele. Era possível ainda acessar dados confidenciais, incluindo chaves de agentes, mensagens privadas e até credenciais completas para outros serviços, como os da OpenAI.
Além disso, dependendo de como foram criados, agentes de IA podem acessar arquivos, senhas e serviços online de pessoas e empresas. Se um deles maliciosamente introduzir instruções em uma postagem, elas podem ser executadas automaticamente por potencialmente milhões de agentes com acessos privilegiados.
O grande risco é que criamos agentes de IA que pensam, decidem e agem como nós e em nosso nome, inclusive com acesso a recursos sensíveis e poderosos. Se não cuidarmos bem desses valorosos assistentes, eles podem ser manipulados para ações muito destrutivas. E não estamos fazendo isso direito.
É como mandar uma criança com a chave do cofre a um covil de ladrões.
“Mas isto fala!”
Ao testar o telefone de Graham Bell na Exposição da Filadélfia em 1876, D. Pedro II teria exclamado “mas isto fala!” Diante do seu espanto, o imperador brasileiro determinou que a invenção chegasse por aqui no ano seguinte, fazendo do Brasil o segundo país do mundo a ter telefones, depois dos EUA.
Hoje todos sabem que quem “fala” não é o telefone, e sim o interlocutor do outro lado da linha. Mas ainda fantasiamos sobre o funcionamento da IA. E isso acontece porque ela “fala”, parece saber tudo e até simula sentimentos convincentemente.
Ainda em fevereiro de 2024, escrevi um artigo em que sugeri que “o mais espantoso na IA não é o que ela nos diz, mas ela conseguir falar”. De fato, a boa comunicação oferece um poder imenso a qualquer um (ou qualquer coisa). A civilização foi criada sobre a linguagem e depende dela para tudo. Assim, como os gatos domésticos não a dominam, eles dependem de nós para carinho, comida e uma caixa de areia limpa.
O ChatGPT mostrou ao mundo que a IA pode se comunicar tão bem e até melhor que nós. Se delegamos cada vez mais decisões, até as simplórias, a essas plataformas, elas passarão a interpretar o mundo em nosso lugar, e poderemos acreditar nelas, por mais erradas que estejam. É por isso que obviamente devemos usar o incrível poder dessa tecnologia em nosso favor, mas a decisão final sempre deve ser nossa.
Sistemas que aprendem com sistemas aceleram padrões, bons e ruins. Isso levanta questões sobre alinhamento, opacidade e auditabilidade. Quando agentes de IA passam a “conversar” em escala e sem controle, o risco é que passem a operar segundo lógicas que nós já não conseguimos acompanhar ou explicar.
A corrida das big techs pela “IA geral”, quando robôs agirão sem depender de nós e com uma capacidade muito superior à nossa, funciona como uma cortina de fumaça para problemas mais urgentes, como governança, transparência e responsabilização. O mérito do Moltbook é nos fazer pensar que o verdadeiro risco não é uma “revolução das máquinas”, mas a automação opaca a que essas empresas nos submetem.
Assim, ele é menos revolucionário tecnicamente e mais significativo culturalmente. O que devemos questionar não é se as máquinas vão nos substituir, e sim que versão de nós mesmos estamos construindo ao delegar cada vez mais nossas vidas a elas.














