Em 1986, plateias do mundo todo prenderam a respiração diante das acrobacias aéreas de Tom Cruise nas telas de cinema em “Top Gun”. Ele repetiu a dose em “Maverick”, a segunda maior bilheteria de 2022, rendendo US$ 1,4 bilhão, logo atrás de “Avatar 2”. Agora a inteligência artificial pode fazer essas peripécias virarem peças de museu, ao tornar pilotos de caça obsoletos e desnecessários.
Duas notícias recentes, uma do The New York Times e outra do The Washington Post, revelam planos dos militares de usar essa tecnologia em novas gerações de aviões e de drones. Ela seria capaz de tomar decisões mais rápidas e precisas que os pilotos, até os mais experientes.
A ideia é controversa. Muito se tem debatido sobre a substituição das mais diversas categorias profissionais por robôs, considerando o impacto social dessa mudança. Mas o que se propõe agora é uma máquina tomar decisões que efetivamente visam a morte de pessoas.
Diversos aspectos éticos são levantados nessa hora. Os próprios pilotos veem isso com ressalva, e não apenas porque podem perder seu emprego daqui um tempo. Afinal, uma máquina pode decidir sobre a vida ou a morte de um ser humano? E se isso realmente acontecer no controle de aviões de combate, quanto faltará para vermos robôs policiando nossas ruas e tomando as mesmas decisões letais por sua conta na vizinhança?
Veja esse artigo em vídeo:
Não estamos falando da atual geração de drones militares, que, apesar de úteis, são bem limitados. Um bom exemplo do que vem por aí é o veículo aéreo não tripulado experimental XQ-58A, conhecido como “Valkyrie”, da Força Aérea americana. Ele, se parece muito mais a um caça furtivo futurista, apesar de ser bem menor que os aviões de combate. É impulsionado por um motor de foguete e é capaz de voar de um lado ao outro da China, carregando munições poderosas.
Mas seu grande diferencial é o controle por inteligência artificial, podendo tomar decisões sozinho, apesar de os militares afirmarem que só executará ações letais se autorizado por um ser humano. Ele pode voar diferentes tipos de missões, inclusive apoiando pilotos em seus caças, aumentando o sucesso e preservando suas vidas.
- Assine gratuitamente minha newsletter sobre experiência do cliente, mídia cultura e transformação digital
- Inscreva-se no meu podcast (escolha a plataforma): Spotify, Deezer, Apple Podcasts, Google Podcasts ou Soundcloud
Como sempre, uma guerra não se ganha apenas com os melhores soldados, mas também com a melhor tecnologia. Mas até agora a decisão de matar sempre recaiu sobre os primeiros. O que pode estar diante de nossos olhos é o surgimento de armas que tomem essa decisão seguindo seus critérios, um ponto sensível para os EUA, pelo seu histórico de ataques ilegais com drones convencionais que mataram civis.
Diante disso, o general Mark Milley, principal conselheiro militar do presidente americano, Joe Biden, afirmou que os EUA manterão “humanos à frente da tomada de decisões”. Ele recentemente conclamou forças armadas de outros países a adotar o mesmo padrão ético.
Nesse ponto, caímos em um outro aspecto crítico desse avanço. Países que adotem essas “boas práticas” poderiam ficar em desvantagem diante de outras potências militares e tecnológicas não tão “comprometidas”, com o maior temor recaindo sobre a China. Como a guerra é, por definição, algo “sujo”, seguir as regras poderia então criar uma desvantagem catastrófica.
Outra mudança trazida pela IA ao tabuleiro armamentista é a entrada de novas empresas fornecedoras de equipamentos. No caso da Força Aérea americana, dois nomes surgem quando pensamos na indústria de caças: a Lockheed Martin e a Boeing. Esses casamentos comerciais são tão antigos e poderosos que sua tecnologia jamais chega, por exemplo, a países menores ou –pior– a grupos guerrilheiros.
Com a pulverização de drones com IA relativamente baratos, muitas outras empresas passam a disputar esses bilionários orçamentos. O “Valkyrie”, produzido pela Kratos (fundada em 1994) custa cerca de US$ 7 milhões. Pode parecer muito, mas é bem menos que os US$ 80 milhões de um F-35 Lightning II, da Lockheed Martin. Outros modelos podem custar ainda menos, na casa de US$ 3 milhões.
O receio é que esses fabricantes passem depois a oferecer tecnologia militar de ponta a terroristas e ditadores. E aí o medo de maus usos pela China vira “café pequeno”.
Campo de testes
O poder da inteligência artificial contra exércitos poderosos está sendo colocado à prova na invasão da Ucrânia. Seu exército vem usando drones bem mais simples que os citados, mas que já contam com recursos de IA, para atacar tropas russas. Mesmo quando essas aeronaves perdem o contato com seus pilotos remotos, devido aos sistemas de interferência do inimigo, ainda completam sua missão por conta própria.
De fato, a Ucrânia vem se tornando um frutífero campo de testes desses armamentos, que vêm sendo produzidos aos milhares. Além de poderem refinar seus equipamentos em situações reais de combate, os fabricantes podem fazer testes que dificilmente podem acontecer em um país que não esteja em guerra.
Os militares sabem que a inteligência artificial toma decisões erradas. Basta ver as falhas –algumas fatais– de carros autônomos nos últimos anos. Mesmo a tecnologia militar sempre sendo muito mais refinada e cara que a civil, não há garantias quanto a sua precisão. E há outros aspectos a serem considerados.
O primeiro é que a IA pode ser excelente em decisões a partir de padrões conhecidos, mas pode se confundir bastante diante do desconhecido e do inesperado, algo que permeia qualquer campo de batalha. Além disso, máquinas não possuem uma bússola moral, que norteia algumas das melhores decisões de um soldado.
É inevitável pensar no filme RoboCop (1987), em que um policial dado como morto é praticamente transformado em um robô. Apesar de ser obrigado a seguir diretivas em seu sistema, o que o tornava realmente eficiente era a humanidade que sobreviveu em seu cérebro. Isso lhe permitia vencer robôs de combate mais poderosos.
Tudo isso me faz lembrar da Guerra do Golfo, que aconteceu entre 1990 e 1991, quando os americanos invadiram o Iraque. Os militares invasores exterminavam o inimigo de longe, quase sem entrar em combate. Na época, um especialista criticou “soldados que querem matar, mas não querem morrer”.
A inteligência artificial pode potencializar isso. É claro que ninguém quer morrer e todos querem vencer um conflito, de preferência logo. Mas quem ganha algo com isso, além da indústria armamentista? Se a Rússia tivesse essa tecnologia, talvez a Ucrânia tivesse deixado de existir em poucas semanas dessa nefasta invasão atual.
Esse é um dos casos em que a inteligência artificial nunca deveria ser usada. Mas seria uma ilusão pueril acreditar que isso não acontecerá. Talvez o futuro da guerra pertença mesmo às máquinas autônomas. Só espero que isso não aconteça também em policiais-robôs nas ruas de nossos bairros.