Anthropic

Dario Amodei, CEO da Anthropic, discursa no AI Impact Summit, que aconteceu há duas semanas, na Índia Foto: reprodução

Proibição da Anthropic por Trump expõe os perigos de um vale-tudo com a IA

By | Tecnologia | No Comments

Na semana passada, neste mesmo espaço, abordei em artigo como a militarização da inteligência artificial pode se tornar um severo risco existencial para a humanidade, especialmente em cenários em que limites éticos no desenvolvimento e uso dessa tecnologia sejam desrespeitados. Pois bem, na sexta passada (27), o presidente dos EUA, Donald Trump, resolveu banir a Anthropic de qualquer contrato com o governo, justamente por ela insistir nesses cuidados.

Ironicamente, o Claude, plataforma de IA da Anthropic, era, até então, a única classificada como segura para aplicações em redes secretas de militares nos EUA. Agora eles exigem essa tecnologia para “qualquer finalidade legal”. Isso inclui a vigilância em massa de cidadãos e seu uso em armas letais totalmente autônomas. Foi quando o CEO da empresa, Dario Amodei, não concordou.

Outras empresas, aparentemente com menos escrúpulos, ocuparam o espaço da Anthropic assim que Trump a escorraçou. A primeira foi a xAI, criadora do Grok, seguida de perto pela OpenAI, dona do ChatGPT. Vale dizer que a Anthropic nasceu quando Amodei e outros pesquisadores se demitiram da OpenAI em 2021 por discordarem do ritmo acelerado de comercialização e da redução na segurança.

Um funcionário do governo disse ao jornal Financial Times que o Claude continua sendo o melhor modelo para uso militar, e que cortá-lo imediatamente prejudicaria as operações. De fato, apesar das ameaças e dos insultos de Trump, a transição deve durar seis meses, período em que um acordo ainda pode ser feito.

Não se trata de um problema pontual entre uma empresa e militares, ou de mais um arroubo autoritário de Trump. As exigências são profundamente antidemocráticas. Se isso for adiante, criará um Estado autoritário sem precedentes, que violará liberdades fundamentais de cidadãos do mundo todo. E as big techs serão cúmplices.


Veja esse artigo em vídeo:


Em nota, Amodei disse que essa vigilância é “incompatível com valores democráticos” e que só é “legal” em alguns casos pelo descompasso entre a lei e a capacidade da IA. As novas exigências permitirão ao governo correlacionar, em larga escala e automaticamente, localização, navegação, associações e outros dados públicos e privados, criando perfis completos de pessoas sem supervisão judicial robusta.

No mês passado, ele publicou que “uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam”. Sobre o uso da IA em armas totalmente autônomas, a Anthropic argumenta que os modelos atuais não são suficientemente confiáveis para operar sistemas letais sem supervisão humana, o que colocaria em risco as vidas tanto de militares quanto de civis.

A empresa, avaliada em US$ 380 bilhões, tem contratos de US$ 200 milhões com as Forças Armadas. O Pentágono acreditava que ela cederia após as ameaças. Mas sua recusa mostra como o Departamento de Guerra não consegue dobrar facilmente empresas do Vale do Silício, ao contrário de fornecedores militares tradicionais, que dependem de contratos de longa duração.

As empresas de IA dependem de profissionais muito qualificados, difíceis de recrutar e mais difíceis de reter. Eles mudam para outras empresas, se não concordarem com posicionamentos de suas lideranças. Além disso, os US$ 200 milhões dos militares representam apenas uma pequena porcentagem da receita da Anthropic: suas vendas corporativas em 2025 ficaram entre US$ 8 bilhões e US$ 10 bilhões.

O secretário de Guerra, Pete Hegseth, ameaçou acionar a Lei de Produção de Defesa para forçar a Anthropic a dar aos militares o que eles querem. Ela concede ao presidente dos EUA poderes emergenciais para intervir na economia do país pela defesa nacional. Nesse caso, empresas devem cumprir ordens sob pena de multas, sanções criminais, perda de contratos, apreensão de bens e até intervenção federal.

 

Revolta no Vale do Silício

A crise provocou uma reação no Vale do Silício. Funcionários da Amazon, do Google e da Microsoft enviaram carta aberta na sexta aos seus superiores pedindo que apoiem a Anthropic e rejeitem contratos que envolvam armas autônomas ou monitoramento em larga escala. Na quinta, 175 funcionários do Google e 50 da OpenAI assinaram outra carta pedindo que suas empresas se recusem a concordar com o Pentágono.

“Eles estão tentando dividir cada empresa com o medo de que a outra ceda”, dizia o documento. “Essa estratégia só funciona se nenhum de nós souber qual é a posição dos outros. Esta carta serve para criar entendimento compartilhado e solidariedade diante dessa pressão do Departamento de Guerra.”

Isso lembra um conflito ético envolvendo o Vale do Silício e os militares em 2017. O Projeto Maven usava a visão computacional da IA do Google para identificar alvos, mas com supervisão humana. Milhares de funcionários se opuseram à empresa “estar no negócio da guerra”, denunciando que a tecnologia poderia refinar ataques letais. O Google decidiu não renovar o contrato e publicou princípios afirmando que não desenvolveria a IA para armas. Mas, no ano passado, eles acabaram flexibilizados.

Agora, os militares não querem só um “Maven mais rápido”, e sim modelos para planejar e apoiar missões, guerra eletrônica e potencialmente controle de armas. E não aceitam “insubordinações” como a da Anthropic e a do Google de 2017.

O amplo uso de IA como exige o Pentágono ameaça a segurança global e os direitos humanos ao facilitar o início de conflitos com armas letais autônomas. Além de gerar um vácuo legal na responsabilização por mortes de civis, erros algorítmicos em operações militares podem ampliar conflitos de maneira rápida e irreversível.

No âmbito interno, a tecnologia impulsiona a vigilância em massa, com rastreamento de localização, contatos e preferências políticas e religiosas em escala sem precedentes. Isso cria discriminação algorítmica de minorias e a repressão de liberdades civis. Sem transparência, a infraestrutura opaca da IA inibe a participação política e pode corroer silenciosamente os pilares fundamentais da democracia liberal.

Antes de se perguntar o que a IA pode fazer pela segurança dos países, devemos perguntar o que os militares estão dispostos a fazer com a liberdade de seus cidadãos usando a IA. Se a democracia não consegue impor limites à IA em tempos de paz relativa, é improvável que faça isso em meio a uma guerra.

Se a Anthropic sucumbir à pressão, passará ao Vale do Silício o recado de que princípios custam caro demais. E aí poucos repetirão esse gesto essencial para a democracia e a vida.

 

Para o CEO da OpenAI, Sam Altman, devemos chegar à IA Geral nos próximos anos: agentes são um possível caminho - Foto: reprodução

Líderes da IA começam nova corrida tecnológica

By | Tecnologia | No Comments

A disputa para dominar a inteligência artificial anda tão acirrada, que se parece cada vez mais a uma corrida de cavalos, em que o ganhador vence “por um nariz”. Agora foi dada a largada para um novo páreo, o dos agentes de IA, e os principais nomes dessa indústria já estão na pista!

Isso não quer dizer que os agentes sejam uma novidade: eles já existem há anos em nossas vidas pessoais e profissionais. Mas até agora são soluções prontas dos fabricantes. Criar o próprio agente é uma tarefa complexa e que exige conhecimentos técnicos. O que Microsoft, OpenAI, Google e Anthropic prometem agora é tornar essa tarefa tão simples quanto conversar com um chatbot, como já nos acostumamos.

Um agente é um sistema que usa a IA para realizar tarefas específicas de maneira autônoma, com pouca ou nenhuma dependência de um ser humano. Ele age de maneira contínua, monitorando o ambiente e analisando dados para tomar decisões seguindo o que lhe foi pedido. Isso é bem diferente de um uso da IA generativa, como conversas com o ChatGPT, em que, por mais incríveis que seus resultados sejam, são atividades pontuais e totalmente dependentes da interação com o usuário.

Essas empresas agora prometem unir o melhor desses dois mundos, de modo que qualquer pessoa possa criar agentes sofisticados de maneira tão simples, quanto pedir que o chatbot escreva um texto. Ainda que isso não vá acontecer imediatamente, a simples abertura desse caminho pode ser realmente revolucionária.


Veja esse artigo em vídeo:


A Microsoft saiu na frente nessa nova etapa, com o lançamento do Copilot Studio. Ele permite criar agentes de IA com relativa facilidade, expandindo as funcionalidades do Copilot ao integrá-lo a bases de dados empresariais, gerando respostas a partir dessas informações, considerando cada contexto específico. Esses agentes podem ser distribuídos para pessoas dentro e fora da organização.

Já a Anthropic, startup de IA ligada ao Google e à Amazon, anunciou recentemente uma abordagem inusitada para sua plataforma Claude, batizada de “uso do computador”. Ainda na fase de testes, ela inova ao adaptar a IA para o uso de sistemas existentes, e não o contrário. Ela pode, por exemplo, assumir o controle de um computador como se fosse o usuário, para realizar tarefas de acordo com o que aparece na tela, até mesmo usando vários programas.

A OpenAI, que continua sendo a estrela mais brilhante do setor com seu ChatGPT, obviamente não quer ficar para trás. A empresa anunciou a versão de testes de um produto para desenvolvedores semelhante à solução da Anthropic. Ela deve ser liberada em janeiro.

O Google também “está dando seus pulos”. A empresa promete novidades na área de agentes ainda nesse ano! Vale lembrar que a empresa impressionou muita gente em 2019, quando ninguém ainda falava de IA generativa, com o lançamento do Google Duplex. Ele permite que o usuário peça que o Assistente realize tarefas simples, com a possibilidade de fazer ligações telefônicas, para, por exemplo, reservar uma mesa de restaurante, interagindo com atendentes humanos. Essas conversas são tão impressionantes, que muita gente se incomodou quando descobria que estava falando com um robô, e não com outra pessoa.

Os agentes que já estão disponíveis em nosso cotidiano se diferenciam de automações convencionais justamente pelas características da IA, especialmente de continuar funcionando se algo não sai como o esperado. Eles também melhoram com o uso, aprendendo coisas novas.

 

O futuro é dos agentes

Nas empresas, os agentes vêm sendo usados cada vez mais no atendimento automatizado a clientes. Eles também são muito úteis ao identificar movimentos do mercado e propor ações mais assertivas para as equipes comerciais, além de ajudar em negociações e de propor ideias aos gestores. Eles também são bastante usados pelo RH, em processo de contratação e até de demissão de profissionais.

Em nosso cotidiano pessoal, os agentes estão em nossos smartphones (no Google Assistente e na Siri) e em alto-falantes inteligentes, como o Amazon Echo. Nesse último, a Alexa pode, entre outras coisas, identificar compras recorrentes e auxiliar em novos pedidos, quando necessário. Relógios inteligentes e outros dispositivos podem monitorar a nossa saúde, e até eletrodomésticos, como aspiradores de pó robôs, realizam tarefas da casa de forma autônoma e cada vez melhor.

Quando a nova geração de agentes sair da fase de testes e chegar ao cidadão comum, ela poderá ampliar seus poderes consideravelmente. As pessoas não ficarão mais restritas aos agentes criados pelos fabricantes dos equipamentos.

Isso permitirá a definição de regras complexas, que combinarão recursos e informações de diferentes serviços aos que o usuário tem acesso. Por exemplo, será possível tirar automaticamente dinheiro de uma aplicação financeira que esteja com baixa rentabilidade para comprar ações de uma empresa com boas perspectivas.

É praticamente um consenso entre especialistas que os agentes representam o futuro da IA. Eles não apenas se tornarão mais diversificados e poderosos, como também serão mais fáceis de se criar. Além disso, veremos cada vez mais soluções complexas resultantes da combinação de vários agentes trabalhando em conjunto.

Muita gente acredita que esse seja o caminho para a Inteligência Artificial Geral (IAG), o “Santo Graal” dessa tecnologia. Quando (e se) estiver disponível, ela tomará decisões de maneira autônoma (ou seja, sem necessidade de comandos de alguém), sobre qualquer assunto e de maneira adaptável. É basicamente como nosso cérebro funciona, mas a IAG terá sobre nós a vantagem de analisar, com velocidade sobre-humana, uma quantidade de dados gigantesca, para tomar decisões mais assertivas.

Ainda existe muita especulação se chegaremos a isso algum dia. Especialistas de alto nível afirmam que a IAG é um conceito teórico inatingível. As big techs apostam fortemente no sucesso, dizendo que isso acontecerá ainda nessa década. Mas não podemos esquecer que elas têm interesses comerciais em afirmações como essas.

Qualquer que seja esse desfecho, devemos nos manter atentos às oportunidades que essa tecnologia oferece, apropriando-nos do que ela pode nos oferecer de bom e nos mantendo vigilantes contra eventuais armadilhas que desenvolvimentos descuidados e usos pouco éticos possam colocar em nosso caminho.

Esse é um trabalho de educação digital importantíssimo, envolvendo empresas, instituições de ensino, governos e outros atores da sociedade civil. As pessoas precisam entender e se apropriar conscientemente da IA e seus agentes, e isso deve chegar a todos.