Monthly Archives: março 2026

Para Bill Gates, a IA pode levar a uma semana de trabalho de apenas três dias - Foto: Philippe Buissin - União Europeia/Creative Commons

IA não salvará o brasileiro de moralismos sobre como trabalha

By | Tecnologia | No Comments

Na esteira dos debates sobre a extinção da jornada de trabalho 6×1, alçada pelo governo como sua principal bandeira neste ano eleitoral, reportagens publicadas no fim de fevereiro na Veja e na Folha provocaram indignação de parte do público. Os textos transpareciam ideias de que o brasileiro já trabalha pouco, não é suficientemente esforçado e que o descanso semanal é um custo.

No centro da polêmica, está o conceito de “produtividade”. E, de fato, geramos muito menos riqueza por hora trabalhada do que profissionais de nações desenvolvidas. O problema se agrava quando, diante dos números, as análises incorporam moralismo, como se isso fosse um traço da cultura brasileira, e catastrofismo, que sugere que melhorar as condições de vida das pessoas levaria a economia a um colapso.

Correndo por fora, a inteligência artificial surge como uma força que magicamente melhoraria a nossa produtividade. Economistas e empresários, com destaque para Bill Gates, argumentam que os ganhos trazidos por essa tecnologia poderiam viabilizar semanas com quatro e até três dias de trabalho apenas.

A redução da jornada de trabalho é um tema naturalmente popular, mas que não permite leituras apressadas ou populistas de nenhum lado. E a inteligência artificial, a despeito de todo o seu poder, não muda nada quando o debate já nasce enviesado.

É preciso abandonar as promessas fáceis, as acusações e as ameaças para entender como aumentar nossa produtividade, como a tecnologia pode nos ajudar nisso e o que mais precisa ser feito para sairmos dessa histórica situação trabalhista subalterna.


Veja esse artigo em vídeo:


A simples adoção de tecnologia não aumenta produtividade, não redistribui renda e não permite trabalhar menos. Pela lógica capitalista, a tecnologia por si só desloca renda do trabalho para o capital, concentrando a riqueza e gerando multidões que laboram insanamente para ganhar pouco em empregos precarizados. Esse é o cenário atual, que pode ser exemplificado pelos entregadores de aplicativos.

Muita gente acusa Gates de ter uma visão utópica e até inocente nessa sua proposta. Mas ela é mais complexa do que a maioria sabe. O fundador da Microsoft especula que a sociedade continuará funcionando mesmo que trabalhemos apenas três dias por semana, graças aos ganhos da IA. Mas ele afirma que isso deve necessariamente vir acompanhado de políticas fiscais e de bem‑estar, para evitar a queda de renda.

Gates propõe, por exemplo, a criação de “impostos sobre a automação”, que financiariam a redução da jornada de trabalho, evitando o desacoplamento entre produção e emprego. Caso contrário, afirma que pode haver desemprego em massa.

Vários economistas alertam sobre um possível paradoxo. À medida que tecnologias se tornam mais eficientes, cresce a pressão por produtividade individual. Ferramentas que prometem “economizar tempo” muitas vezes acabam elevando expectativas de desempenho, e passamos a entregar mais no mesmo tempo.

A IA se encaixa nisso. Se um profissional consegue gerar um relatório em minutos com apoio dela, o que antes era uma tarefa semanal pode se tornar uma atividade diária. O ganho de eficiência é absorvido pela expansão das expectativas.

Isso pode ainda reforçar a desigualdade, outra dor histórica do Brasil. Mesmo que a economia como um todo gere novos empregos, os ganhos de produtividade podem se concentrar em poucas empresas, setores e regiões. Isso pode criar períodos de transição dolorosos, com desemprego intenso e ainda mais pressões salariais.

 

Entre o marketing político e o alarmismo empresarial

A divergência entre visões otimistas e céticas não está apenas na tecnologia, mas na interpretação da história econômica. A expectativa de menos trabalho parte da ideia de que produtividade elevada libera tempo para a sociedade. A visão alternativa sugere que as economias modernas quase sempre responderam a esses ganhos expandindo produção e consumo.

A inteligência artificial não é uma utopia tecnológica, a despeito da excitação alimentada em torno dela. Suas potencialidades e limitações estão profundamente ligadas ao trabalho, por isso ela não deve ser sequestrada pelo marketing político ou pelo alarmismo empresarial, cada um com sua agenda limitante.

Adotar amplamente essas plataformas não significa aumento de produtividade. Se a IA faz bem as tarefas de um profissional, então ele realmente se tornou dispensável.

Uma boa produtividade vem necessariamente de uma educação melhor e para todos, da educação básica à pós-graduação. Em um mundo mais complexo e competitivo, erra quem acredita que cursinhos de curta duração garantirão seu emprego.

As empresas devem ser incentivadas a usar a IA para qualificar profissionais e redesenhar processos, em vez de demitir pessoal. Isso inclui acordos coletivos que troquem ganho de produtividade por tempo de estudo, e mudanças em encargos trabalhistas alinhadas a investimento em capital humano.

A redução da jornada de trabalho deve vir associada ao aumento de produtividade, não por decreto isolado. Mas essa premissa não pode ser usada para demonizar o tema, garantindo a concentração de riqueza às custas de trabalho mais precarizado.

Devemos ter muito cuidado com discursos de que demitir pessoas pela adoção da IA em tarefas rotineiras vem de uma “modernização inevitável” ou de que a baixa competitividade vem de uma suposta “preguiça” do trabalhador. Pelo contrário, eliminar ou piorar as condições de trabalho para se produzir o mesmo com menos custo demonstra uma visão tacanha de que o cenário atual é suficiente.

Isso diz muito mais sobre a baixa produtividade do brasileiro, que trabalha com uma formação ruim, com apoio tecnológico mal direcionado e insuficiente, além de condições extenuantes. Por isso, o verdadeiro debate não é se “trabalhamos pouco” versus “dá para trabalhar menos”, e sim quem se apropria do tempo e dos ganhos que a tecnologia oferece.

Por isso, devemos analisar de maneira desapaixonada e construtiva as previsões de que a automação levaria naturalmente a jornadas muito menores. Para que isso ocorra, a tecnologia não basta. É preciso que instituições, políticas públicas e escolhas sociais direcionem os ganhos de produtividade para essa redução, algo que historicamente quase nunca ocorre de forma espontânea.

Sem isso, a IA será a nova justificativa para trabalharmos mais sob o pretexto de que poderíamos, talvez um dia, trabalhar menos.

 

Dario Amodei, CEO da Anthropic, discursa no AI Impact Summit, que aconteceu há duas semanas, na Índia Foto: reprodução

Proibição da Anthropic por Trump expõe os perigos de um vale-tudo com a IA

By | Tecnologia | No Comments

Na semana passada, neste mesmo espaço, abordei em artigo como a militarização da inteligência artificial pode se tornar um severo risco existencial para a humanidade, especialmente em cenários em que limites éticos no desenvolvimento e uso dessa tecnologia sejam desrespeitados. Pois bem, na sexta passada (27), o presidente dos EUA, Donald Trump, resolveu banir a Anthropic de qualquer contrato com o governo, justamente por ela insistir nesses cuidados.

Ironicamente, o Claude, plataforma de IA da Anthropic, era, até então, a única classificada como segura para aplicações em redes secretas de militares nos EUA. Agora eles exigem essa tecnologia para “qualquer finalidade legal”. Isso inclui a vigilância em massa de cidadãos e seu uso em armas letais totalmente autônomas. Foi quando o CEO da empresa, Dario Amodei, não concordou.

Outras empresas, aparentemente com menos escrúpulos, ocuparam o espaço da Anthropic assim que Trump a escorraçou. A primeira foi a xAI, criadora do Grok, seguida de perto pela OpenAI, dona do ChatGPT. Vale dizer que a Anthropic nasceu quando Amodei e outros pesquisadores se demitiram da OpenAI em 2021 por discordarem do ritmo acelerado de comercialização e da redução na segurança.

Um funcionário do governo disse ao jornal Financial Times que o Claude continua sendo o melhor modelo para uso militar, e que cortá-lo imediatamente prejudicaria as operações. De fato, apesar das ameaças e dos insultos de Trump, a transição deve durar seis meses, período em que um acordo ainda pode ser feito.

Não se trata de um problema pontual entre uma empresa e militares, ou de mais um arroubo autoritário de Trump. As exigências são profundamente antidemocráticas. Se isso for adiante, criará um Estado autoritário sem precedentes, que violará liberdades fundamentais de cidadãos do mundo todo. E as big techs serão cúmplices.


Veja esse artigo em vídeo:


Em nota, Amodei disse que essa vigilância é “incompatível com valores democráticos” e que só é “legal” em alguns casos pelo descompasso entre a lei e a capacidade da IA. As novas exigências permitirão ao governo correlacionar, em larga escala e automaticamente, localização, navegação, associações e outros dados públicos e privados, criando perfis completos de pessoas sem supervisão judicial robusta.

No mês passado, ele publicou que “uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam”. Sobre o uso da IA em armas totalmente autônomas, a Anthropic argumenta que os modelos atuais não são suficientemente confiáveis para operar sistemas letais sem supervisão humana, o que colocaria em risco as vidas tanto de militares quanto de civis.

A empresa, avaliada em US$ 380 bilhões, tem contratos de US$ 200 milhões com as Forças Armadas. O Pentágono acreditava que ela cederia após as ameaças. Mas sua recusa mostra como o Departamento de Guerra não consegue dobrar facilmente empresas do Vale do Silício, ao contrário de fornecedores militares tradicionais, que dependem de contratos de longa duração.

As empresas de IA dependem de profissionais muito qualificados, difíceis de recrutar e mais difíceis de reter. Eles mudam para outras empresas, se não concordarem com posicionamentos de suas lideranças. Além disso, os US$ 200 milhões dos militares representam apenas uma pequena porcentagem da receita da Anthropic: suas vendas corporativas em 2025 ficaram entre US$ 8 bilhões e US$ 10 bilhões.

O secretário de Guerra, Pete Hegseth, ameaçou acionar a Lei de Produção de Defesa para forçar a Anthropic a dar aos militares o que eles querem. Ela concede ao presidente dos EUA poderes emergenciais para intervir na economia do país pela defesa nacional. Nesse caso, empresas devem cumprir ordens sob pena de multas, sanções criminais, perda de contratos, apreensão de bens e até intervenção federal.

 

Revolta no Vale do Silício

A crise provocou uma reação no Vale do Silício. Funcionários da Amazon, do Google e da Microsoft enviaram carta aberta na sexta aos seus superiores pedindo que apoiem a Anthropic e rejeitem contratos que envolvam armas autônomas ou monitoramento em larga escala. Na quinta, 175 funcionários do Google e 50 da OpenAI assinaram outra carta pedindo que suas empresas se recusem a concordar com o Pentágono.

“Eles estão tentando dividir cada empresa com o medo de que a outra ceda”, dizia o documento. “Essa estratégia só funciona se nenhum de nós souber qual é a posição dos outros. Esta carta serve para criar entendimento compartilhado e solidariedade diante dessa pressão do Departamento de Guerra.”

Isso lembra um conflito ético envolvendo o Vale do Silício e os militares em 2017. O Projeto Maven usava a visão computacional da IA do Google para identificar alvos, mas com supervisão humana. Milhares de funcionários se opuseram à empresa “estar no negócio da guerra”, denunciando que a tecnologia poderia refinar ataques letais. O Google decidiu não renovar o contrato e publicou princípios afirmando que não desenvolveria a IA para armas. Mas, no ano passado, eles acabaram flexibilizados.

Agora, os militares não querem só um “Maven mais rápido”, e sim modelos para planejar e apoiar missões, guerra eletrônica e potencialmente controle de armas. E não aceitam “insubordinações” como a da Anthropic e a do Google de 2017.

O amplo uso de IA como exige o Pentágono ameaça a segurança global e os direitos humanos ao facilitar o início de conflitos com armas letais autônomas. Além de gerar um vácuo legal na responsabilização por mortes de civis, erros algorítmicos em operações militares podem ampliar conflitos de maneira rápida e irreversível.

No âmbito interno, a tecnologia impulsiona a vigilância em massa, com rastreamento de localização, contatos e preferências políticas e religiosas em escala sem precedentes. Isso cria discriminação algorítmica de minorias e a repressão de liberdades civis. Sem transparência, a infraestrutura opaca da IA inibe a participação política e pode corroer silenciosamente os pilares fundamentais da democracia liberal.

Antes de se perguntar o que a IA pode fazer pela segurança dos países, devemos perguntar o que os militares estão dispostos a fazer com a liberdade de seus cidadãos usando a IA. Se a democracia não consegue impor limites à IA em tempos de paz relativa, é improvável que faça isso em meio a uma guerra.

Se a Anthropic sucumbir à pressão, passará ao Vale do Silício o recado de que princípios custam caro demais. E aí poucos repetirão esse gesto essencial para a democracia e a vida.