Monthly Archives: setembro 2023

Muitos motoristas não querem se contratados como CLT pela Uber - Foto: Paul Hanaoka/Creative Commons

Decisão contra a Uber escancara o envelhecimento das leis trabalhistas

By | Tecnologia | No Comments

No último dia 14, a Justiça Trabalhista de São Paulo determinou que a Uber contrate todos os motoristas ligados à plataforma pela CLT (Consolidação das Leis do Trabalho) e pague R$ 1 bilhão por danos morais coletivos. A decisão vale para todo o Brasil e a empresa tem seis meses após o fim de recursos para implantar as medidas.

A Uber já disse que não pretende cumprir a decisão! Em nota, a empresa afirma que não vai adotar nenhuma medida antes que todos os recursos estejam esgotados. A grande pergunta é: o que acontecerá se a decisão for mantida após isso?

Suprema ironia, associações de motoristas se manifestaram dizendo que eles não querem ser contratados pela CLT! Mas isso não quer dizer que estejam satisfeitos com as atuais condições de trabalho.

Qualquer que seja o resultado desses recursos, o caso serve para debatermos a aplicabilidade das leis trabalhistas brasileiras ao mundo atual. A Uber e diversas empresas que fazem parte de nossas vidas seguem os conceitos da economia compartilhada. Ela prevê o engajamento de vendedores e prestadores de serviço com seus clientes, viabilizado por plataformas digitais.

O problema é que esse modelo se choca com a CLT em muitos pontos. Em um momento em que o Governo Federal busca resgatar elementos como o imposto sindical, é de se questionar qual formato regerá as relações trabalhistas de milhões de brasileiros em um futuro próximo.


Veja esse artigo em vídeo:


A legislação brasileira é uma das que mais protege o trabalhador no mundo. Entre muitos itens de segurança social, benefícios como férias remuneradas de 30 dias (e ainda com um adicional de um terço) já a partir de um ano de admissão são luxos inimagináveis em outros países. Tudo isso tem um custo, pago pelos próprios profissionais e principalmente pelas empresas. Via de regra, para cada real pago em salário ao funcionário, a empresa gasta outro com os encargos trabalhistas.

“Essa é uma decisão feita para não ser cumprida”, afirma José Isaías Hoffmann, diretor de Controladoria da Corporate Consulting. “Operacionalmente, como a Uber vai admitir via CLT mais de um milhão de motoristas”, questiona. Ele acredita que, se ela for obrigada a fazer isso, acabará saindo do país, deixando um rastro de desemprego.

O peso dos encargos e de outras obrigações trabalhistas já provoca mudanças no perfil de contratações no Brasil há cerca de duas décadas. Cada vez mais, empresas procuram, sempre que possível, trocar o modelo da CLT por terceirizações de empresas com um único funcionário, os famosos “PJ”. Com isso, os empregadores se livram de encargos e burocracia, e têm o profissional à disposição.

Alguns trabalhadores também preferem esse formato, principalmente quando isso lhes proporciona flexibilidade, com destaque ao horário. É o caso dos profissionais por aplicativos, como motoristas e entregadores. “As pessoas querem uma vida flexível”, afirma a estrategista de carreira Ticyana Arnaud. “Se for para trabalhar CLT, então eles voltam a procurar emprego, vão ser motoristas numa empresa”, sugere.

O principal conflito entre as regras da CLT e as da economia compartilhada é que a primeira considera o profissional um empregado, enquanto a segunda o tem como um autônomo e às vezes nem isso: atua como um prestador informal, que pode trabalhar ao mesmo tempo para incontáveis contratantes. Essa flexibilidade tornou-se tão valorizada por trabalhadores de diferentes áreas (afinal, há uma enormidade de serviços na economia compartilhada), que muitos abrem mão da proteção e dos benefícios generosos da CLT por ela.

Apesar disso, é preciso ter cuidado, pois nem tudo que brilha é ouro!

 

Bondades podem esconder abusos

Não há dúvida que a economia compartilhada é um fenômeno consolidado e que traz muitos benefícios a prestadores e a clientes. A Uber é um exemplo tão didático quanto popular, por ter redefinido a mobilidade urbana e por ser usada por uma porcentagem considerável das populações das grandes cidades. Mas há muitos outros ótimos nomes, como Airbnb, Mercado Livre, iFood ou Rappi. Fica difícil pensar a vida moderna sem eles, e a pandemia deixou isso ainda mais evidente.

Ainda assim, não se pode deixar deslumbrar por suas inegáveis vantagens. O Laboratório de Pesquisa DigiLabour investiga continuamente o impacto das plataformas e de tecnologias disruptivas (como a inteligência artificial) no mundo do trabalho. Eles criticam, por exemplo, essas plataformas chamarem os motoristas de “parceiros” ou de “autônomos”, quando, na verdade, não têm autonomia nem para definir o valor das corridas ou a porcentagem que receberão por elas. Afirmam também que o “empreendedorismo de si mesmo” mascara uma relação de trabalho desigual, em que o profissional assume todos os riscos de um empreendedor, mas atua como um empregado, porém sem nenhum benefício ou proteção.

Já o Instituto Fairwork, ligado à Universidade de Oxford (Reino Unido), criou cinco princípios que seriam necessários para um trabalho decente: remuneração justa, condições justas de trabalho, contratos justos, gestão justa e representação dos funcionários na operação. Em uma pesquisa realizada por eles em 2021, as plataformas no Brasil ficaram entre as piores do mundo: em uma escala até 10 pontos nesses quesitos, iFood e 99 marcaram 2, Uber ficou em 1, enquanto Rappi, GetNinjas e UberEats não saíram do zero. Os resultados são semelhantes aos de outros países da América Latina, mas ficam atrás dos de operações na África, Ásia e Europa.

É importante lembrar que, quando a Uber começou a operar no Brasil, em 2016, dirigir para ela parecia um bom negócio: a empresa ficava com apenas 7% das corridas (hoje pode chegar a 50%) e oferecia muitos bônus aos motoristas. As corridas eram baratas e o serviço de alta qualidade.

Isso explica a “economia compartilhada que dá certo”: ela precisa ser boa para todos os envolvidos, ou seja, o cliente, o vendedor ou prestador, e a plataforma. Quando os motoristas da Uber passaram a receber muito pouco, tudo desmoronou!

“Precisa, de fato, de uma atualização na legislação para entender essa nova dinâmica de mundo”, afirma Hoffmann. “Ela requer que seja justo para quem faz o serviço, para quem recebe, para a economia, que ninguém seja prejudicado com isso”, conclui.

“É preciso tentar uma negociação para reduzir essas taxas e ser uma coisa que valha a pena para todos, e não só para um lado”, explica Arnaud. Para ela, “se a Uber for forçada a aderir à CLT, outras empresas também terão que fazer o mesmo”.

É um momento de mudança de paradigma na maneira como trabalhamos. Insistir na rigidez da CLT, criada em 1943, pode ir contra os interesses de muitos trabalhadores. Por outro lado, deixar tudo na mão das plataformas seria “pedir que a raposa tome conta do galinheiro”. É preciso buscar esse equilíbrio perdido, pois a economia compartilhada, sim, funciona. E nós, como clientes, precisamos pressionar para que essa solução seja encontrada.

 

Entregador dorme sobre seus jornais, em imagem tirada em 1935 – Foto: City of Toronto Archives/Creative Commons

Reação da mídia ao ChatGPT pode favorecer as fake news

By | Tecnologia | No Comments

Nas últimas semanas, diversas empresas de comunicação impediram que seus conteúdos continuassem sendo usados para alimentar o ChatGPT. Elas argumentam –com razão– que seus produtos têm valor e que não estão sendo remuneradas pela melhoria que proporcionam involuntariamente à plataforma geradora de textos por inteligência artificial da OpenAI.

Entre os que decidiram promover o bloqueio, estão os jornais americanos The New York Times e The Washington Post, o britânico The Guardian, a rede de TV CNN, as agências de notícias Reuters e Bloomberg, além de diversos veículos europeus. Até a gigante de e-commerce Amazon decidiu fechar a porta para esse robô.

Apesar de seus argumentos legítimos, essa decisão pode favorecer a desinformação em um futuro breve. Os sistemas de inteligência artificial generativa tornaram-se um enorme sucesso, e as pessoas devem usá-los cada vez mais. Em uma situação extrema em que todos os produtores de bons conteúdos os neguem a essas plataformas, elas poderiam ficar restritas a sites dedicados a fake news e outros tipos de conteúdo de baixa qualidade para “aprender o que dizer” aos seus usuários.

Nesse cenário, o público poderia passar a consumir e a replicar o lixo desinformativo, em uma escala ainda maior que a já vista nos últimos anos. Seria terrível para o jornalismo –que luta para combater isso– e para a sociedade como um todo.


Veja esse artigo em vídeo:


Eu já vi uma história parecida antes. Quando foi criado, em 2002, o Google Notícias gerou protestos entre veículos de comunicação do mundo todo, que acusavam a empresa de se apropriar de sua produção para criar um concorrente. O Google Notícias sempre se defendeu, dizendo que fazia um “uso justo” de pequenos trechos dos veículos e que sempre enviava os leitores que clicassem nos seus links para a fonte da notícia.

Diante das reclamações, o Google criou um recurso para que os veículos impedissem que seu conteúdo fosse usado no Notícias. O problema é que isso também tirava os veículos do buscador, o que não era nada interessante para eles. Eventualmente as partes chegaram a acordos que permitiram que esse conteúdo continuasse sendo usado, enquanto o Google criava mecanismos de apoio ao jornalismo no mundo. Movimentos semelhantes também aconteceram com as principais redes socais.

No caso atual, há algumas diferenças significativas. Pela natureza da inteligência artificial generativa, ela sempre cria textos inéditos, a cada pedido dos usuários. Não há remuneração, referência e sequer um link para as fontes que foram usadas para o sistema escrever aquilo. Consequentemente não há nenhum ganho para os autores.

“Certamente as inteligências artificiais não produziriam o conteúdo que elas são capazes sem serem alimentadas com o conteúdo criado por humanos, que não autorizaram isso e que não estão sendo remunerados por isso”, explica Marcelo Cárgano, advogado de Direito Digital e de Proteção de Dados do Abe Advogados. “A grande questão, no final, é essa!”

No dia 6, 26 organizações do mercado editorial, inclusive a brasileira ANJ (Associação Nacional de Jornais), publicaram o documento “Princípios Globais para a Inteligência Artificial”. Ele traz regras que consideram essenciais para a prática do jornalismo frente ao avanço da inteligência artificial, cobrando o desenvolvimento ético da tecnologia e o respeito às propriedades intelectuais dos veículos.

Outra fonte de informação ameaçada pela inteligência artificial é a enciclopédia digital Wikipedia. Pela natureza mais perene de seus milhões de verbetes, as pessoas poderiam fazer perguntas a plataformas de IA ao invés de consultar suas páginas, o que já vem preocupando seus editores. Suprema ironia, uma das maiores fontes para o ChatGPT é a própria Wikipedia.

 

Atualidade e ética

Além da questão da falta de remuneração pelo uso de conteúdos alheios, há ainda o temor de que as plataformas de inteligência artificial acabem substituindo a Wikipedia e o próprio jornalismo.

Esse questionamento surgiu, na quarta passada, em uma mesa de debates da qual participei na Semana da Imprensa, promovida pelo jornal Joca, na ESPM (Escola Superior de Propaganda e Marketing). O evento explica o jornalismo para crianças e adolescentes, o público do veículo.

Os participantes foram unânimes em negar essa possibilidade. O primeiro motivo é que esses sistemas, a despeito de seus melhores esforços, são imprecisos, cometendo muitos erros pela falta de uma verificação humana. Outro problema é que suas bases estão sempre desatualizadas (o ChatGPT só conhece fatos até setembro de 2021). Por fim, mas não menos importante, essas ferramentas não possuem qualquer iniciativa, ética ou transparência, essenciais a qualquer produto informativo.

“A função dos veículos de comunicação é particularmente importante para a democracia”, explica Cárgano, fazendo referência ao papel do jornalismo de promover debates críticos para a sociedade. “Mas eles também são empresas e têm que gerar lucro para sua própria viabilidade econômica”, acrescenta.

Toda essa confusão deriva do impacto que essa tecnologia já apresenta sobre pessoas e empresas. Ele é enorme, mas ainda pouco compreendido. Enquanto isso, todos buscam caminhos para aproveitar seus incríveis recursos, sem cair em possíveis armadilhas que podem surgir dela.

A decisão de impedir as plataformas de inteligência artificial de aprender com a sua produção pode ser ironicamente um “tiro no pé” do jornalismo. Se elas forem entregues a fontes de baixa qualidade, podem se tornar poderosas ferramentas de fake news, que fustigam os jornalistas e a própria imprensa como pilar que é de uma sociedade desenvolvida.

É preciso uma conscientização dos diferentes atores nesse processo. Do lado dos usuários, eles devem entender que a IA não é uma ferramenta que substitui o jornalismo ou mesmo um buscador, pois ela não garante a verdade no que produz. As empresas de inteligência artificial devem, por sua vez, melhorar ainda mais sua tecnologia, para corrigir as imperfeições existentes, e cuidar para não canibalizar suas próprias fontes, o que poderia, a médio prazo, inviabilizar seu próprio negócio.

As empresas de comunicação têm um papel fundamental na solução desse imbróglio. Obviamente elas precisam defender seus interesses comerciais, mas sem que isso crie riscos ainda inexistentes para o próprio negócio. Devem buscar uma compensação justa das plataformas de IA.

Vivemos em um mundo em que a verdade perde força diante de narrativas distorcidas por diferentes grupos de poder. Aqueles que a buscam deve se unir e somar as novas tecnologias às suas metodologias editoriais consagradas. Se forem bem-sucedidos nisso, todos ganharão!

 

Crianças participam em atividade de aula de robótica em sua escola - Foto: Arno Mikkor/Creative Commons

Pensamento computacional em crianças e jovens ajuda a formar melhores cidadãos

By | Educação | No Comments

Em uma famosa entrevista em 1995, Steve Jobs disse que “todos neste país deveriam aprender a programar um computador, pois isto ensina a pensar.” O cofundador da Apple foi visionário, pois dominar a tecnologia se tornou crucial em um mundo imerso nela. A explosão no debate e aplicações de inteligência artificial reacendeu o tema, pois fica cada vez mais claro que ela pode colocar pessoas e empresas em um patamar superior àquelas que não se aproveitam de seus recursos.

Mas o pensamento computacional transcende programar computadores. Na verdade, hoje podemos fazer usos incríveis das máquinas sem escrever uma linha de código. Essa maneira de raciocinar envolve a capacidade analítica de resolver qualquer tipo de problema, de identificar padrões, de modelar processos. Ela aprimora nossa capacidade de aprender e de pensar criativa e criticamente, mesmo sem nada digital.

Nas últimas décadas, muitas escolas tentaram implantar computadores no cotidiano escolar em iniciativas muitas vezes improdutivas. Até pouco tempo, muitas ainda tinham “aulas de informática” sobre Windows e Word. Isso já erra por segregar a “informática” a uma aula, ao invés de encará-la de maneira transversal nas disciplinas.

Agora nos aproximamos do momento em que as escolas precisarão implantar a Política Nacional de Educação Digital, que estabelece diretrizes e metas para a promoção da educação digital, instituída no dia 11 de janeiro pela lei 14.533/23. Resta saber se as escolas estão preparadas para isso.


Veja esse artigo em vídeo:


Não podemos esquecer que muitas dessas instituições no país não têm infraestrutura para isso, carecendo de computadores e acesso à Internet. Mas esse trabalho pode começar mesmo sem o lado digital.

“Se a gente trabalha isso desde cedo nas escolas, com crianças e jovens, a gente consegue uma geração que sabe pensar de um jeito melhor, mais estruturado”, explica Cristina Diaz, diretora da UpMat Educacional, empresa que atua na educação básica a partir de conteúdos de matemática e pensamento computacional. Para ela, as crianças que desenvolvem essas habilidades desde cedo têm mais chance de criar um gosto pelo aprendizado, que levarão para o resto da vida.

Uma resolução do MEC (Ministério da Educação), de 4 de outubro do ano passado, determina que, a partir do mês que vem, as escolas passem a ensinar computação. A lei de janeiro detalha como isso deve ser feito, considerando a inclusão digital da sociedade, a educação digital nas escolas, as ações de capacitação do mercado de trabalho e o incentivo à inovação, à pesquisa e ao desenvolvimento.

Se isso já não bastasse, o lançamento do ChatGPT em novembro passado provocou um enorme debate sobre como a inteligência artificial impacta as atividades escolares, com professores e alunos usando a ferramenta sem preparo. Coincidentemente, na quinta passada, a Unesco (Organização das Nações Unidas para Educação, Ciência e Cultura) publicou orientações sobre o uso da inteligência artificial na educação e na pesquisa. Nelas, o órgão sugere que a IA não seja usada antes dos 13 anos de idade.

Diaz não acredita que a inteligência artificial deixará as pessoas menos inteligentes ou preguiçosas, um temor que vem sendo ventilado por muita gente. O motivo é simples: “para manusear esse tipo de tecnologia, a gente vai ter que aprender coisas mais sofisticadas, uma leitura crítica, a utilizar competências superiores”, afirma.

De fato, uma ferramenta tão poderosa como a inteligência artificial generativa oferece os seus maiores benefícios àqueles que sabem tirar proveito dela, com perguntas inteligentes. Infelizmente, a recíproca também é válida.

Como diz um ditado americano, “se entra lixo, sai lixo”.

 

Aliada da educação

Ao contrário do que muitos temem, a tecnologia digital –e a inteligência artificial particularmente– não ameaça a educação ou o papel do professor. Pelo contrário, pode ser uma incrível aliada no processo, se bem usada.

Em uma palestra há quatro meses, Salman Khan, fundador e CEO da Khan Academy, uma organização que oferece educação gratuita pela Internet, demonstrou uma ferramenta de IA generativa que auxilia professores e alunos. Nela, é possível ver, no caso dos estudantes, a máquina não lhes dando respostas prontas e ajudando-os a pensar na solução dos problemas. Para os professores, a ferramenta ajuda no planejamento de aulas mais engajadoras. Como disse Khan, para os alunos, a IA atua como um tutor, enquanto, para os professores, age como um assistente.

Os professores, as escolas e as políticas educacionais precisam se modernizar para absorver essas mudanças aceleradas da sociedade. Ainda temos um sistema educacional conteudista, com uma quantidade de informação tão grande, que pode desestimular o aluno a querer aprender mais.

Isso se reflete nos péssimos resultados do Brasil nas diferentes avaliações internacionais de eficiência educacional. Nossos estudantes, na média, sabem muito pouco de linguagem, ciências e matemática. Essa última é particularmente maltratada em nosso país, cujas últimas gerações parecem não gostar dela por definição.

Mas como ser um bom cidadão em uma sociedade profundamente digital sem uma boa base de pensamento computacional?

Engana-se quem acha que isso impacta apenas habilidades ligadas às Exatas. Um pensamento computacional limitado afeta diretamente o senso crítico do indivíduo. Em um mundo em que redes sociais e smartphones se transformaram em ferramentas de dominação ideológica pelas infames fake news, nada é mais necessário e determinante para a criação de um cidadão consciente, com sua mente livre.

“As escolas já estão reconhecendo a sensação de que não tem para onde escapar, e não porque é uma demanda da lei, mas porque é uma demanda da sociedade, das crianças, das famílias, da vida”, acrescenta Diaz. “Ninguém fala em outra coisa: o mundo do trabalho depende disso!”

Pais e escolas precisam se unir para que as crianças sejam incentivadas a desenvolver seu pensamento computacional. A matemática e o raciocínio lógico não podem continuar sendo encarados como “coisas chatas”, pois são os alunos que dominam esses recursos que escreverão o futuro de um mundo melhor para si e para todos os demais.

 

Tom Cruise viveu pela segunda vez o intrépido piloto da Marinha dos EUA Pete Mitchell, em “Top Gun: Maverick” (2022) - Foto: divulgação

Inteligência artificial pode mandar “Top Gun” para o museu

By | Tecnologia | No Comments

Em 1986, plateias do mundo todo prenderam a respiração diante das acrobacias aéreas de Tom Cruise nas telas de cinema em “Top Gun”. Ele repetiu a dose em “Maverick”, a segunda maior bilheteria de 2022, rendendo US$ 1,4 bilhão, logo atrás de “Avatar 2”. Agora a inteligência artificial pode fazer essas peripécias virarem peças de museu, ao tornar pilotos de caça obsoletos e desnecessários.

Duas notícias recentes, uma do The New York Times e outra do The Washington Post, revelam planos dos militares de usar essa tecnologia em novas gerações de aviões e de drones. Ela seria capaz de tomar decisões mais rápidas e precisas que os pilotos, até os mais experientes.

A ideia é controversa. Muito se tem debatido sobre a substituição das mais diversas categorias profissionais por robôs, considerando o impacto social dessa mudança. Mas o que se propõe agora é uma máquina tomar decisões que efetivamente visam a morte de pessoas.

Diversos aspectos éticos são levantados nessa hora. Os próprios pilotos veem isso com ressalva, e não apenas porque podem perder seu emprego daqui um tempo. Afinal, uma máquina pode decidir sobre a vida ou a morte de um ser humano? E se isso realmente acontecer no controle de aviões de combate, quanto faltará para vermos robôs policiando nossas ruas e tomando as mesmas decisões letais por sua conta na vizinhança?


Veja esse artigo em vídeo:


Não estamos falando da atual geração de drones militares, que, apesar de úteis, são bem limitados. Um bom exemplo do que vem por aí é o veículo aéreo não tripulado experimental XQ-58A, conhecido como “Valkyrie”, da Força Aérea americana. Ele, se parece muito mais a um caça furtivo futurista, apesar de ser bem menor que os aviões de combate. É impulsionado por um motor de foguete e é capaz de voar de um lado ao outro da China, carregando munições poderosas.

Mas seu grande diferencial é o controle por inteligência artificial, podendo tomar decisões sozinho, apesar de os militares afirmarem que só executará ações letais se autorizado por um ser humano. Ele pode voar diferentes tipos de missões, inclusive apoiando pilotos em seus caças, aumentando o sucesso e preservando suas vidas.

Como sempre, uma guerra não se ganha apenas com os melhores soldados, mas também com a melhor tecnologia. Mas até agora a decisão de matar sempre recaiu sobre os primeiros. O que pode estar diante de nossos olhos é o surgimento de armas que tomem essa decisão seguindo seus critérios, um ponto sensível para os EUA, pelo seu histórico de ataques ilegais com drones convencionais que mataram civis.

Diante disso, o general Mark Milley, principal conselheiro militar do presidente americano, Joe Biden, afirmou que os EUA manterão “humanos à frente da tomada de decisões”. Ele recentemente conclamou forças armadas de outros países a adotar o mesmo padrão ético.

Nesse ponto, caímos em um outro aspecto crítico desse avanço. Países que adotem essas “boas práticas” poderiam ficar em desvantagem diante de outras potências militares e tecnológicas não tão “comprometidas”, com o maior temor recaindo sobre a China. Como a guerra é, por definição, algo “sujo”, seguir as regras poderia então criar uma desvantagem catastrófica.

Outra mudança trazida pela IA ao tabuleiro armamentista é a entrada de novas empresas fornecedoras de equipamentos. No caso da Força Aérea americana, dois nomes surgem quando pensamos na indústria de caças: a Lockheed Martin e a Boeing. Esses casamentos comerciais são tão antigos e poderosos que sua tecnologia jamais chega, por exemplo, a países menores ou –pior– a grupos guerrilheiros.

Com a pulverização de drones com IA relativamente baratos, muitas outras empresas passam a disputar esses bilionários orçamentos. O “Valkyrie”, produzido pela Kratos (fundada em 1994) custa cerca de US$ 7 milhões. Pode parecer muito, mas é bem menos que os US$ 80 milhões de um F-35 Lightning II, da Lockheed Martin. Outros modelos podem custar ainda menos, na casa de US$ 3 milhões.

O receio é que esses fabricantes passem depois a oferecer tecnologia militar de ponta a terroristas e ditadores. E aí o medo de maus usos pela China vira “café pequeno”.

 

Campo de testes

O poder da inteligência artificial contra exércitos poderosos está sendo colocado à prova na invasão da Ucrânia. Seu exército vem usando drones bem mais simples que os citados, mas que já contam com recursos de IA, para atacar tropas russas. Mesmo quando essas aeronaves perdem o contato com seus pilotos remotos, devido aos sistemas de interferência do inimigo, ainda completam sua missão por conta própria.

De fato, a Ucrânia vem se tornando um frutífero campo de testes desses armamentos, que vêm sendo produzidos aos milhares. Além de poderem refinar seus equipamentos em situações reais de combate, os fabricantes podem fazer testes que dificilmente podem acontecer em um país que não esteja em guerra.

Os militares sabem que a inteligência artificial toma decisões erradas. Basta ver as falhas –algumas fatais– de carros autônomos nos últimos anos. Mesmo a tecnologia militar sempre sendo muito mais refinada e cara que a civil, não há garantias quanto a sua precisão. E há outros aspectos a serem considerados.

O primeiro é que a IA pode ser excelente em decisões a partir de padrões conhecidos, mas pode se confundir bastante diante do desconhecido e do inesperado, algo que permeia qualquer campo de batalha. Além disso, máquinas não possuem uma bússola moral, que norteia algumas das melhores decisões de um soldado.

É inevitável pensar no filme RoboCop (1987), em que um policial dado como morto é praticamente transformado em um robô. Apesar de ser obrigado a seguir diretivas em seu sistema, o que o tornava realmente eficiente era a humanidade que sobreviveu em seu cérebro. Isso lhe permitia vencer robôs de combate mais poderosos.

Tudo isso me faz lembrar da Guerra do Golfo, que aconteceu entre 1990 e 1991, quando os americanos invadiram o Iraque. Os militares invasores exterminavam o inimigo de longe, quase sem entrar em combate. Na época, um especialista criticou “soldados que querem matar, mas não querem morrer”.

A inteligência artificial pode potencializar isso. É claro que ninguém quer morrer e todos querem vencer um conflito, de preferência logo. Mas quem ganha algo com isso, além da indústria armamentista? Se a Rússia tivesse essa tecnologia, talvez a Ucrânia tivesse deixado de existir em poucas semanas dessa nefasta invasão atual.

Esse é um dos casos em que a inteligência artificial nunca deveria ser usada. Mas seria uma ilusão pueril acreditar que isso não acontecerá. Talvez o futuro da guerra pertença mesmo às máquinas autônomas. Só espero que isso não aconteça também em policiais-robôs nas ruas de nossos bairros.