Claude

Dario Amodei, CEO da Anthropic, criou a empresa depois de sair da OpenAI por preocupações com a segurança do GPT-2 - Foto: reprodução

Medo pode funcionar como marketing para a inteligência artificial

By | Tecnologia | No Comments

No dia 7 de abril, a Anthropic, criadora da plataforma de inteligência artificial Claude, anunciou que não liberará a nova versão do seu produto para o público, por considerá‑la “poderosa demais” e que “o mundo não estaria preparado para ela”. Mas apesar dessa negativa, isso pode ser ótimo para seus negócios.

Batizada de Claude Mythos Preview, a empresa acredita que ela poderia ser usada para explorar vulnerabilidades de sistemas de computador, o que tem feito melhor do que as IAs já lançadas. Por isso, a Anthropic oferecerá o modelo apenas a um consórcio de cerca de 40 empresas de tecnologia, incluindo Google, Microsoft, Apple e Amazon, algumas delas suas concorrentes. A expectativa é que elas o usem para encontrar e corrigir vulnerabilidades de segurança em seus próprios softwares estratégicos.

A decisão foi suficiente para causar alvoroço no mercado e reacender medos em torno das possibilidades da IA. De fato, o lançamento do ChatGPT, em novembro de 2022, disparou temores nas pessoas que iam desde a substituição em massa de empregos –o que já começa a acontecer– até visões apocalípticas, como indícios de uma possível revolta das máquinas, que levaria ao extermínio da humanidade.

Pelo menos nesse último caso, nada aponta que acontecerá, não em um horizonte visível. Mas isso não é trivial e envolve capacidades cognitivas artificiais surpreendentes e um poder computacional assustador, que não param de crescer.

Chega a ser contraintuitivo uma empresa anunciar que desenvolveu um produto que, de tão poderoso, representaria um risco à humanidade. Sendo assim, o mais razoável seria simplesmente destruí-lo, o que obviamente não acontecerá. E isso se deve ao fato de que essa ansiedade fabricada é um excelente marketing para algo que acabará chegando ao mercado, depois de legitimado com alguma narrativa redentora.

É assim que esse mercado cresce captando bilhões de dólares de investidores.


Veja esse artigo em vídeo:


A Anthropic disse que seu novo modelo já teria encontrado milhares de bugs e brechas de segurança em diversos programas populares, incluindo os principais sistemas operacionais e navegadores. Uma delas foi uma falha no OpenBSD, sistema operacional de código aberto projetado justamente para ser difícil de hackear. O bug existiu sem ser notado por ninguém por 27 anos.

O novo modelo tem capacidades avançadas de ataque em cibersegurança, com alto grau de autonomia, e pode ser usado para derrubar empresas e comprometer infraestruturas essenciais. Isso poderia ameaçar partes críticas da internet, derrubar empresas gigantes e até penetrar em sistemas de defesa nacional dos EUA.

A Anthropic havia ganhado holofotes em fevereiro ao desafiar o Pentágono, sede militar dos EUA. A empresa, então a única IA credenciada para suas aplicações, se recusou a aceitar as exigências para que sua tecnologia pudesse ser usada em armas de destruição em massa e na vigilância de cidadãos. Isso fez com que Pete Hegseth, secretário de Defesa dos EUA, classificasse a empresa como um “risco à cadeia de abastecimento dos EUA”, decisão depois bloqueada pela Justiça.

Esses motivos éticos são legítimos e a coragem de peitar os militares americanos rendeu muitos louros justos à Anthropic. Além disso, em termos de imagem pública, posicionar‑se como quem vê o perigo e sacrifica o lucro pela segurança global cria uma aura de “guardião”, mesmo quando esses investimentos também consolidam infraestruturas proprietárias e mercados cativos.

É verdade que a IA já está aumentando a sofisticação e a escala de ataques cibernéticos, incluindo engenharia social e automação de golpes. Mas a forma maximalista e até apocalíptica como esse risco costuma ser apresentado favorece gastos gigantescos, aquisições e regimes regulatórios favoráveis às big techs.

 

“O caminho para o lado sombrio”

Mais do que simples marketing, o medo vem sendo claramente instrumentalizado para reforçar a posição de poder, vender produtos e moldar o debate regulatório em termos que beneficiam essas empresas. Ao enfatizar riscos catastróficos de IA, reforçam a ideia de que apenas elas teriam responsabilidade e capacidade técnica e financeira para manter a tecnologia sob controle, o que favorece a concentração de poder.

Esse sentimento também alimenta uma demanda política por regras que acabariam criando barreiras de entrada para concorrentes menores, por requisitos caros e complexos. No nível de produto, ele serve para vender soluções de “IAs seguras”, capazes de proteger as operações contra os próprios riscos da IA.

É curioso que a Anthropic “nasceu de uma costela” da OpenAI, criadora do ChatGPT, justamente por temores em segurança. Em 2019, essa última havia terminado de treinar GPT-2. Dario Amodei, então diretor de pesquisa da OpenAI e hoje CEO da Anthropic, insistiu que ele era perigoso demais para ser lançado. Para ele, o mundo precisava de tempo para se preparar, pois a IA poderia ser usada para a produção em massa de desinformação.

O modelo acabou indo para o mercado. Amodei e outros líderes do projeto decidiram deixar a OpenAI para fundar a Anthropic. Hoje vemos que aqueles temores eram legítimos, pois a IA se transformou em uma grande ferramenta para criar mentiras.

Logan Graham, chefe de uma equipe que testa modelos em busca de ameaças na Anthropic, declarou que o Mythos Preview seria “o ponto de partida para o que acreditamos ser uma virada na indústria, ou acerto de contas com o que precisa acontecer agora”. Segundo ele, uma das questões não respondidas é se, com esse modelo e outros no futuro, que serão capazes de fazer coisas semelhantes, será necessário reescrever a maior parte ou todo o software crítico do mundo. Afinal, se até então eles pareciam seguros porque se exigia muito esforço humano para atacá-los, com a IA essa garantia desceu pelo ralo.

Por isso, precisamos avaliar declarações como essa, da Anthropic, com cautela. Sim, a IA traz riscos reais e grandes, que precisam ser contidos. Mas não se pode ignorar que essa empresa, que insiste em alertar o mundo sobre eles, continua faturando bilhões de dólares com esses mesmos produtos.