Monthly Archives: março 2026

Mark Zuckerberg, CEO da Meta, chega para seu depoimento no Tribunal Superior da Califórnia, no dia 18 de fevereiro – Foto: reprodução

Decisões jurídicas podem redesenhar as redes sociais

By | Tecnologia | No Comments

Uma decisão do Tribunal Superior da Califórnia pode mudar decisivamente a maneira como usamos as redes sociais e até como elas são construídas. Depois de deliberar por uma semana, o júri concluiu na quarta (25) que Facebook, Instagram e YouTube viciam seus usuários e que provocaram problemas de saúde mental em uma jovem.

A decisão do julgamento, iniciado no dia 17 de fevereiro, pode ser considerada histórica, pois ela não se baseou no conteúdo publicado nessas plataformas, e sim nos seus algoritmos e no seu design, considerados nocivos por manter online as pessoas de maneira artificial e deliberada. Isso cria um precedente para os cerca de 2.000 outros processos semelhantes que estão ativos nos EUA.

KGM, hoje com 20 anos, processou a Meta, o YouTube, o Snapchat e o TikTok em 2023. Ela começou a usar as redes sociais aos 6 anos e alegou que os sites causaram danos pessoais, incluindo dismorfia corporal e pensamentos suicidas. O Snapchat e o TikTok fizeram acordos antes do julgamento, mas a Meta e o YouTube prosseguiram com o processo, pois afirmam ser muito difícil provar que redes sociais causam dependência e danos pessoais.

Com a decisão, a Meta (dona do Facebook e do Instagram) e o Google (dono do YouTube) devem pagar US$ 3 milhões em indenização, com a primeira sendo responsável por 70% do valor. As empresas disseram que vão recorrer.

Foi a primeira vez que o júri de um caso como esse teve acesso a documentos internos das big techs e ouviu depoimentos de seus principais executivos, incluindo Mark Zuckerberg, CEO da Meta. Essa confrontação exibiu um posicionamento que chega a ser cínico dessas empresas. Elas têm consciência dos danos, não fazem tudo que podem para mitigá-los, mas afirmam ser preocupadas com seus usuários. Agora essa exposição determinará o que acontecerá com as plataformas daqui para frente.


Veja esse artigo em vídeo:


Muita gente está comparando essa decisão com uma de 1998 contra a indústria do cigarro, depois que 46 Estados americanos processaram aquelas empresas por danos à saúde pública. Elas foram obrigadas a pagar US$ 206 bilhões para compensar custos de saúde, aumentar o preço de seus produtos, restringir fortemente a publicidade, dissolver seu lobby e revelar milhões de documentos internos, além de financiar campanhas antitabagismo.

A medida inspirou leis e iniciativas semelhantes no mundo todo, inclusive no Brasil. Isso provocou uma queda contínua na quantidade de fumantes, que só desacelerou com a popularização de cigarros eletrônicos, conhecidos como “vapes”, há 15 anos. A indústria os apresentou como um “fumo menos nocivo” e até um caminho para parar de fumar, mas hoje se sabe que eles podem ter um potencial viciante ainda maior.

“A gente precisa ter cautela, porque o paralelo com a indústria do tabaco faz sentido na medida em que envolve um possível conhecimento prévio de danos e escolhas de design que amplificam os riscos”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Se surgirem provas robustas de que houve ocultação e manipulação intencional, pode ser que a gente tenha um ponto de inflexão bastante semelhante em impacto regulatório”, pondera.

“A decisão fortalece uma percepção de que há riscos estruturais no ambiente digital que exigem mais atenção não somente de pais e responsáveis, mas da sociedade como um todo”, acrescenta Marcelo Cárgano, advogado especialista em direito digital do Abe Advogados. Para ele, “à medida que se consolida a percepção sobre o papel do design destas plataformas na indução de comportamento, cresce a expectativa por regras mais claras, fiscalização efetiva e responsabilização quando houver danos”.

No julgamento, as empresas alegaram que não permitem usuários com menos de 13 anos, porém documentos internos da Meta mostraram que ela sabe que crianças as usam regularmente. A companhia disse que toma medidas para proteger os usuários mais jovens, mas outros documentos indicavam metas de retenção de pré-adolescentes na plataforma.

 

O abuso da liberdade de expressão

As empresas tentaram arquivar o processo, invocando a proteção da liberdade de expressão. Esse é um recurso que as big techs usam há décadas, baseado na Seção 230 do Communications Decency Act (CDA) dos EUA e no artigo 19 do Marco Civil da Internet brasileiro. Esses mecanismos determinam que essas plataformas não podem ser responsabilizadas pelos conteúdos que os usuários publicam em suas páginas.

“No Brasil, essas defesas tendem a perder força após a decisão do Supremo Tribunal Federal em junho de 2025, que declarou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet e ampliou as hipóteses de responsabilização das plataformas”, explica Cárgano. “No caso de crimes gravíssimos, as plataformas têm o dever ativo de impedir a própria publicação desse tipo de conteúdo”, afirma.

O assunto esquentou por aqui, com a entrada em vigor, no dia 17 de março, do ECA Digital, que visa proteger crianças e adolescentes de abusos nessas plataformas. Mas, apesar de já estar valendo, pouco efetivamente já foi feito para essa proteção.

Essas leis e decisões enfraquecem o discurso das big techs de que não podem ser responsabilizadas, com o qual se encastelaram. A sociedade se cansou dessa “autorregulação de fachada” e agora percebe que o maior problema não são os conteúdos, e sim os algoritmos e o design desses ambientes digitais, criados para engajar seus usuários ao extremo, mesmo às custas de sua saúde mental.

“O maior desafio jurídico continua sendo o nexo causal, demonstrar que um design específico gerou ansiedade, depressão ou dependência, e isso não é trivial”, explica Crespo. Segundo ele, “isso está evoluindo com estudos científicos, com documentos internos e com padrões de comportamento replicáveis”.

Se os tribunais consolidarem a ideia de que extrair tempo e dados de usuários com mecanismos viciantes configura dano indenizável, os modelos de negócio baseados em engajamento a qualquer custo deixarão de ser apenas eticamente questionáveis, para se tornar economicamente arriscados.

A sociedade, por sua vez, precisa entender que educação midiática já não basta. A resposta aos riscos digitais não pode mais ser apenas “ensinar a usar melhor”, mas garantir, por leis efetivas, proteções mínimas, sobretudo para crianças e adolescentes.

 

A pesquisadora Sherry Turkle, para quem as pessoas esperam da tecnologia saídas rápidas para problemas emocionais - Foto: reprodução

Inteligência artificial tenta “dar match” onde apps de namoro falharam

By | Tecnologia | No Comments

No dia 12 de março, o Tinder anunciou novos recursos com inteligência artificial para tentar corrigir um problema que ele ajudou a criar. Seu excesso de escolha transformou a busca por sexo e por amor em um exercício de fadiga. A promessa agora é trocar o malfadado “cardápio de gente” pela “curadoria de relacionamentos”. Resta saber se a IA terá sucesso onde os algoritmos tradicionais vêm falhando miseravelmente.

O uso da tecnologia para encontrar o par perfeito não é novo. Há três décadas, esses sistemas evoluem de formulários de características simples, como idade, religião e hobbies, para plataformas que cruzam dados, comportamento e preferências. As versões recentes tentam inferir e combinar padrões invisíveis ao próprio usuário, tornando-se, para muitos, o principal, se não o único, caminho para conhecer alguém.

Mas tanta “eficiência” tem cobrado um preço alto na saúde mental e na qualidade dos vínculos. Vemos uma distorção sistemática dos relacionamentos, resultando em laços extremamente frágeis e no fenômeno do “dating burnout”. Essa exaustão, derivada da esperança de que o próximo perfil será ligeiramente melhor, gera solidão, ansiedade e baixa autoestima. As pessoas nunca estiveram tão conectadas, mas raramente se sentiram tão sozinhas diante de uma lista infinita de opções descartáveis.

Esse cenário ecoa as ideias do filósofo polonês Zygmunt Bauman, que descreveu em 2003 o “amor líquido” como vínculos flexíveis e instáveis em uma cultura consumista. Isso dialoga também com a socióloga americana Sherry Turkle, para quem as pessoas passaram a esperar da tecnologia soluções eficientes para dilemas emocionais.

Se o amor nunca foi tão “mensurável”, tampouco foi tão instável. A dúvida é se a inteligência artificial pode, de fato, aproximar pessoas reais para relações saudáveis, ou apenas tornará mais eficiente um sistema que já vem sendo considerado falido pelos próprios usuários, pela pretensa “otimização” que corrói o investimento emocional necessário para relacionamentos de longo prazo.


Veja esse artigo em vídeo:


No “amor líquido”, os laços humanos tornaram-se bens de consumo que, se não trouxerem satisfação imediata, serão descartados. Na nossa realidade digital, o outro deixa de ser um indivíduo complexo para se tornar um objeto de gratificação momentânea. A tecnologia não apenas facilita esse processo, como o incentiva, ao transformar a busca pelo parceiro em um jogo de recompensas rápidas e superficiais.

Bauman argumentava que o grande dilema moderno é o conflito entre o desejo de segurança e o medo da prisão. As pessoas querem a estabilidade de um companheiro sem perder a liberdade de sair da relação ao menor sinal de tédio. Os aplicativos de namoro resolvem esse paradoxo de forma pragmática e cruel, ao oferecerem a ilusão de um vínculo que pode ser “desligado” com um clique, permitindo que o usuário mantenha um pé fora da relação enquanto ainda está nela.

Isso reforça as ideias de Turkle sobre como esperamos da tecnologia saídas rápidas para problemas que são, por natureza, emocionais e lentos. Usamos esses sistemas como mediadores preferenciais porque exigem menos do que os seres humanos. Afinal, é mais fácil interagir com algo que nos oferece controle total que enfrentar a vulnerabilidade de uma conversa olho no olho, em que não há botão de “cancelar”.

A pesquisadora do Instituto de Tecnologia de Massachusetts (MIT) explica que as pessoas buscam uma ilusão de companhia sem as exigências da amizade. E os aplicativos de namoro oferecem interação constante e validações do ego, mas com um custo emocional baixíssimo. Criam a “conexão pela conexão”, em um simulacro de intimidade que preenche o tempo, mas não o vazio da falta de uma presença real.

Vale dizer que a tecnologia não inventou o “amor líquido”, mas lhe ofereceu o terreno perfeito. Ao amplificar comportamentos que já vinham sendo moldados por décadas de individualismo e imediatismo na sociedade, ela ampliou uma aversão ao compromisso que já estava latente na cultura ocidental. E os smartphones aceleraram uma desintegração social iniciada muito antes do lançamento do primeiro aplicativo.

Culpar as plataformas é uma saída confortável, mas simplista. O problema não está na tecnologia em si, mas no tipo de vínculo que incentiva e nas expectativas que constrói.

 

“Traição líquida”

Em janeiro de 2025, o “The New York Times” contou o caso de uma americana de 28 anos, que é casada, mas tem um “amante de IA” com quem passa mais de 50 horas por semana, incluindo interações sexuais por texto. O marido sabe e não se incomoda, já que não há consumação física.

Sob a ótica de Bauman e de Turkle, ambos ganham com esse arranjo distópico. A mulher obtém a atenção ininterrupta e a validação de um sistema programado para agradar, enquanto o marido se livra da carga emocional de suprir todas as demandas da esposa. Criou-se uma relação em que ninguém se esforça, ninguém se sacrifica e ninguém se compromete de verdade. O vínculo humano é substituído por uma conveniência técnica que mantém a paz doméstica ao custo da profundidade.

Diante de casos como esse, cada vez mais numerosos, a sociedade precisa repensar conceitos como paquera, ciúmes e até traição. Estamos redesenhando o amor para que ele caiba nas limitações e facilidades dessas plataformas digitais, porém, se a nossa definição de relacionamento passa a aceitar uma simulação como equivalente ao real, podemos estar perdendo a bússola do que significa ser humano. O risco é nos tornarmos tão “eficientes” em evitar os desafios do amor, que acabemos esquecendo como sentir qualquer outra coisa que não seja o conforto falso dessas plataformas.

O cansaço emocional e a descartabilidade de fenômenos como o “dating burnout” mostram que há muitos relacionamentos mediados por tecnologia, mas pouca presença, escuta e continuidade. Isso reforça o diagnóstico de Turkle sobre vínculos frágeis em ambientes digitalmente mediados. As pessoas estão falando sem parar, mas sem escuta, e conectando-se com muitos, mas sem comprometimento. Estamos sempre “quase lá”, sem nunca estar inteiramente com alguém.

Se a inteligência artificial promete otimizar e prever o amor, talvez não devêssemos nos preocupar se isso é possível tecnicamente, mas se, com ela, o amor continuará sendo amor ou se acabará transformando-se apenas em uma “experiência eficiente”. Relacionamentos envolvem incerteza e vulnerabilidade, com chance real de se machucar. Ao tentar eliminar o risco, podemos estar retirando exatamente aquilo que torna o vínculo afetivo significativo.

É provável que a tarefa mais urgente não seja então delegar mais decisões aos algoritmos, e sim decidir, com alguma coragem, que tipo de humanidade queremos levar para nossas telas.

 

Mesmo com o avanço da IA da sala de aula, papel do professor continua imprescindível - Foto: Zinkevych (Freepik)/Creative Commons

Propostas do MEC para bom uso da IA servem para todos os setores da sociedade

By | Educação, Tecnologia | No Comments

Além das transformações intensas por toda a economia, a inteligência artificial está transformando a maneira como falamos e até pensamos. Por isso, temos que buscar um uso consciente e construtivo dela. Esse cuidado se torna crítico na educação, justamente onde desenvolvemos valores, novas habilidades e formamos cidadãos.

Nesse quadro, o Referencial para o Uso e Desenvolvimento Responsáveis de Inteligência Artificial na Educação, publicado na quinta passada (12) pelo Ministério da Educação (MEC), é muito bem-vindo. O documento orienta educadores e instituições e oferece diretrizes para políticas públicas sobre como fazer bons usos dessa tecnologia nas escolas da educação infantil à pós-graduação.

Criar um arcabouço de propostas com essa complexidade leva tempo, mas professores e alunos já usam a IA generativa há anos. Infelizmente, por falta de orientação, muitos deles não aproveitam tudo que a tecnologia oferece ou fazem até usos questionáveis dela.

Isso não é exclusivo da educação. Pelo contrário, vemos adoções inadequadas dessa tecnologia em todos os setores. A rapidez da sua evolução supera nossa capacidade de compreender o que cada mudança representa. Além disso, nunca algo havia invadido nossos sagrados campos da cognição e da criatividade.

Assim, embora seja voltado à educação, a proposta do MEC explicita princípios que podem, com adaptações, orientar outros setores no uso de IA. Ela enfatiza supervisão humana efetiva, transparência e explicabilidade dos sistemas, proteção rigorosa de dados pessoais, avaliação de impacto algorítmico, promoção de equidade e inclusão e soberania tecnológica. Dessa forma, suas diretrizes têm potencial de inspirar políticas públicas e práticas organizacionais muito além do ambiente educacional.


Veja esse artigo em vídeo:


O MEC não está sozinho na orientação sobre bons usos da IA na educação. No momento, 12 universidades brasileiras já têm regras internas sobre o uso dessa tecnologia. Um dia antes da publicação do referencial do ministério, a Universidade Estadual Paulista (Unesp) publicou o seu Guia para utilização de IA na graduação. A Universidade de São Paulo (USP) e a Universidade Estadual de Campinas (Unicamp) também estão trabalhando em documentos semelhantes.

De certa forma, os documentos do MEC e da Unesp são complementares. O primeiro funciona como um marco principiológico, sem entrar em regras operacionais. Já o segundo tem abordagem mais pragmática, organizando o que alunos, docentes e funcionários podem e não podem fazer com a IA no cotidiano.

“O referencial do MEC chega em um tempo que alunos e professores já estão usando a IA para diversos fins”, afirma David de Oliveira Lemes, professor da PUC-SP. “Hoje, não dá para fugir disso, mas é preciso ter critérios de uso”, acrescenta.

“Quando a gente fala da questão da tecnologia com o professor, eu preciso oferecer condições para que ele se aproprie, entenda e se enxergue dentro desse universo, porque, senão, ele não consegue vincular isso à prática pedagógica”, explica Ana Lucia de Souza Lopes, professora e líder do Laboratório de Humanidades Digitais da Universidade Presbiteriana Mackenzie. “Ele corre o risco de a IA fazer tudo para ele e determinar que professor ele vai ser”, alerta.

Os pesquisadores concordam que o letramento tecnológico de professores e alunos é necessário, porém não é suficiente. O uso irrefletido da IA pode produzir mediocridade automatizada, limitada por prompts rasos, em vez de melhorar o ensino.

“A gente tem que discutir a IA do ponto de vista epistemológico, pois ela entra em tudo na vida, molda comportamentos, impacta como eu me visto, o que eu consumo, como eu penso”, diz Lopes. “Então eu tenho que aprender a ‘pensar a IA’, não só aderir a ela, nessa relação vertiginosa que a gente não sabe para onde vai.”

 

Capacitação docente

Mas nem o melhor documento mudará a prática pedagógica se não houver formação e discussão coletiva. Por falta de apoio, muitos docentes acabam aprendendo sozinhos a usar a tecnologia, com resultados muito aquém do possível.

Isso é uma lástima, pois a tecnologia pode alterar profundamente a dinâmica da sala de aula, repensando a didática, avaliação e processos de aprendizagem. Metodologias ativas baseadas em projetos ficam ainda melhores, pois os alunos podem ganhar protagonismo ao usar a tecnologia para construir atividades antes inatingíveis.

“Eu tenho pensado muito nessa relação entre aquilo que é esse novo e os processos de ensino e aprendizagem, nos seus princípios, seus fundamentos, porque isso vai mudar”, sugere Lopes. “A gente tem que falar de uma didática digital, tem que incluir, neste campo do saber, pesquisas que discutam esse digital, porque são outras possibilidades de aprender e de ensinar.”

Dessa forma, a IA pode apoiar, mas nunca substituir o professor. Mas deve existir uso crítico, consciência dos limites dos sistemas e preservação do protagonismo docente e discente. Caso contrário, há o risco de se cair em uma pirotecnia tecnológica que se presta apenas ao marketing escolar. Não se deve demonizar a tecnologia, mas sim colocar cada coisa no seu lugar.

O referencial do MEC afirma que a IA deve reforçar o direito à educação, a equidade e a dignidade humana. Mas Lemes lembra que vivemos em um país com profundos abismos sociais, que podem se agravar com implantações desiguais da IA na escola. “Uma coisa é você falar de universidades com pensadores de ponta, boa infraestrutura para professores e para os alunos, que se preocupam com a formação dessas pessoas, mas outra é aquele professor que está em um local sem conectividade, com equipamentos de baixa qualidade e agindo sozinho”, explica.

A inteligência artificial já entrou nas salas de aula muito antes de qualquer regra. O referencial do MEC e os guias das universidades tentam organizar um fenômeno já em curso. Eles não resolverão sozinhos os dilemas pedagógicos, éticos e culturais que a tecnologia impõe, mas ao menos reconhecem que a ignorar não é mais uma opção.

Nosso desafio não é definir se a IA pode ser usada na educação, e sim evitar que ela substitua o esforço intelectual. Como disse Lemes, “eu não vou competir com a IA, mas usarei minha experiência para compartilhar histórias com os alunos, para mostrar o que dá certo”. E, de fato, temos que garantir que, diante de máquinas que respondem tudo, a escola continue ensinando as pessoas a pensar, a fazer boas perguntas e a analisar boas respostas.

 

Para Bill Gates, a IA pode levar a uma semana de trabalho de apenas três dias - Foto: Philippe Buissin - União Europeia/Creative Commons

IA não salvará o brasileiro de moralismos sobre como trabalha

By | Tecnologia | No Comments

Na esteira dos debates sobre a extinção da jornada de trabalho 6×1, alçada pelo governo como sua principal bandeira neste ano eleitoral, reportagens publicadas no fim de fevereiro na Veja e na Folha provocaram indignação de parte do público. Os textos transpareciam ideias de que o brasileiro já trabalha pouco, não é suficientemente esforçado e que o descanso semanal é um custo.

No centro da polêmica, está o conceito de “produtividade”. E, de fato, geramos muito menos riqueza por hora trabalhada do que profissionais de nações desenvolvidas. O problema se agrava quando, diante dos números, as análises incorporam moralismo, como se isso fosse um traço da cultura brasileira, e catastrofismo, que sugere que melhorar as condições de vida das pessoas levaria a economia a um colapso.

Correndo por fora, a inteligência artificial surge como uma força que magicamente melhoraria a nossa produtividade. Economistas e empresários, com destaque para Bill Gates, argumentam que os ganhos trazidos por essa tecnologia poderiam viabilizar semanas com quatro e até três dias de trabalho apenas.

A redução da jornada de trabalho é um tema naturalmente popular, mas que não permite leituras apressadas ou populistas de nenhum lado. E a inteligência artificial, a despeito de todo o seu poder, não muda nada quando o debate já nasce enviesado.

É preciso abandonar as promessas fáceis, as acusações e as ameaças para entender como aumentar nossa produtividade, como a tecnologia pode nos ajudar nisso e o que mais precisa ser feito para sairmos dessa histórica situação trabalhista subalterna.


Veja esse artigo em vídeo:


A simples adoção de tecnologia não aumenta produtividade, não redistribui renda e não permite trabalhar menos. Pela lógica capitalista, a tecnologia por si só desloca renda do trabalho para o capital, concentrando a riqueza e gerando multidões que laboram insanamente para ganhar pouco em empregos precarizados. Esse é o cenário atual, que pode ser exemplificado pelos entregadores de aplicativos.

Muita gente acusa Gates de ter uma visão utópica e até inocente nessa sua proposta. Mas ela é mais complexa do que a maioria sabe. O fundador da Microsoft especula que a sociedade continuará funcionando mesmo que trabalhemos apenas três dias por semana, graças aos ganhos da IA. Mas ele afirma que isso deve necessariamente vir acompanhado de políticas fiscais e de bem‑estar, para evitar a queda de renda.

Gates propõe, por exemplo, a criação de “impostos sobre a automação”, que financiariam a redução da jornada de trabalho, evitando o desacoplamento entre produção e emprego. Caso contrário, afirma que pode haver desemprego em massa.

Vários economistas alertam sobre um possível paradoxo. À medida que tecnologias se tornam mais eficientes, cresce a pressão por produtividade individual. Ferramentas que prometem “economizar tempo” muitas vezes acabam elevando expectativas de desempenho, e passamos a entregar mais no mesmo tempo.

A IA se encaixa nisso. Se um profissional consegue gerar um relatório em minutos com apoio dela, o que antes era uma tarefa semanal pode se tornar uma atividade diária. O ganho de eficiência é absorvido pela expansão das expectativas.

Isso pode ainda reforçar a desigualdade, outra dor histórica do Brasil. Mesmo que a economia como um todo gere novos empregos, os ganhos de produtividade podem se concentrar em poucas empresas, setores e regiões. Isso pode criar períodos de transição dolorosos, com desemprego intenso e ainda mais pressões salariais.

 

Entre o marketing político e o alarmismo empresarial

A divergência entre visões otimistas e céticas não está apenas na tecnologia, mas na interpretação da história econômica. A expectativa de menos trabalho parte da ideia de que produtividade elevada libera tempo para a sociedade. A visão alternativa sugere que as economias modernas quase sempre responderam a esses ganhos expandindo produção e consumo.

A inteligência artificial não é uma utopia tecnológica, a despeito da excitação alimentada em torno dela. Suas potencialidades e limitações estão profundamente ligadas ao trabalho, por isso ela não deve ser sequestrada pelo marketing político ou pelo alarmismo empresarial, cada um com sua agenda limitante.

Adotar amplamente essas plataformas não significa aumento de produtividade. Se a IA faz bem as tarefas de um profissional, então ele realmente se tornou dispensável.

Uma boa produtividade vem necessariamente de uma educação melhor e para todos, da educação básica à pós-graduação. Em um mundo mais complexo e competitivo, erra quem acredita que cursinhos de curta duração garantirão seu emprego.

As empresas devem ser incentivadas a usar a IA para qualificar profissionais e redesenhar processos, em vez de demitir pessoal. Isso inclui acordos coletivos que troquem ganho de produtividade por tempo de estudo, e mudanças em encargos trabalhistas alinhadas a investimento em capital humano.

A redução da jornada de trabalho deve vir associada ao aumento de produtividade, não por decreto isolado. Mas essa premissa não pode ser usada para demonizar o tema, garantindo a concentração de riqueza às custas de trabalho mais precarizado.

Devemos ter muito cuidado com discursos de que demitir pessoas pela adoção da IA em tarefas rotineiras vem de uma “modernização inevitável” ou de que a baixa competitividade vem de uma suposta “preguiça” do trabalhador. Pelo contrário, eliminar ou piorar as condições de trabalho para se produzir o mesmo com menos custo demonstra uma visão tacanha de que o cenário atual é suficiente.

Isso diz muito mais sobre a baixa produtividade do brasileiro, que trabalha com uma formação ruim, com apoio tecnológico mal direcionado e insuficiente, além de condições extenuantes. Por isso, o verdadeiro debate não é se “trabalhamos pouco” versus “dá para trabalhar menos”, e sim quem se apropria do tempo e dos ganhos que a tecnologia oferece.

Por isso, devemos analisar de maneira desapaixonada e construtiva as previsões de que a automação levaria naturalmente a jornadas muito menores. Para que isso ocorra, a tecnologia não basta. É preciso que instituições, políticas públicas e escolhas sociais direcionem os ganhos de produtividade para essa redução, algo que historicamente quase nunca ocorre de forma espontânea.

Sem isso, a IA será a nova justificativa para trabalharmos mais sob o pretexto de que poderíamos, talvez um dia, trabalhar menos.

 

Dario Amodei, CEO da Anthropic, discursa no AI Impact Summit, que aconteceu há duas semanas, na Índia Foto: reprodução

Proibição da Anthropic por Trump expõe os perigos de um vale-tudo com a IA

By | Tecnologia | No Comments

Na semana passada, neste mesmo espaço, abordei em artigo como a militarização da inteligência artificial pode se tornar um severo risco existencial para a humanidade, especialmente em cenários em que limites éticos no desenvolvimento e uso dessa tecnologia sejam desrespeitados. Pois bem, na sexta passada (27), o presidente dos EUA, Donald Trump, resolveu banir a Anthropic de qualquer contrato com o governo, justamente por ela insistir nesses cuidados.

Ironicamente, o Claude, plataforma de IA da Anthropic, era, até então, a única classificada como segura para aplicações em redes secretas de militares nos EUA. Agora eles exigem essa tecnologia para “qualquer finalidade legal”. Isso inclui a vigilância em massa de cidadãos e seu uso em armas letais totalmente autônomas. Foi quando o CEO da empresa, Dario Amodei, não concordou.

Outras empresas, aparentemente com menos escrúpulos, ocuparam o espaço da Anthropic assim que Trump a escorraçou. A primeira foi a xAI, criadora do Grok, seguida de perto pela OpenAI, dona do ChatGPT. Vale dizer que a Anthropic nasceu quando Amodei e outros pesquisadores se demitiram da OpenAI em 2021 por discordarem do ritmo acelerado de comercialização e da redução na segurança.

Um funcionário do governo disse ao jornal Financial Times que o Claude continua sendo o melhor modelo para uso militar, e que cortá-lo imediatamente prejudicaria as operações. De fato, apesar das ameaças e dos insultos de Trump, a transição deve durar seis meses, período em que um acordo ainda pode ser feito.

Não se trata de um problema pontual entre uma empresa e militares, ou de mais um arroubo autoritário de Trump. As exigências são profundamente antidemocráticas. Se isso for adiante, criará um Estado autoritário sem precedentes, que violará liberdades fundamentais de cidadãos do mundo todo. E as big techs serão cúmplices.


Veja esse artigo em vídeo:


Em nota, Amodei disse que essa vigilância é “incompatível com valores democráticos” e que só é “legal” em alguns casos pelo descompasso entre a lei e a capacidade da IA. As novas exigências permitirão ao governo correlacionar, em larga escala e automaticamente, localização, navegação, associações e outros dados públicos e privados, criando perfis completos de pessoas sem supervisão judicial robusta.

No mês passado, ele publicou que “uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam”. Sobre o uso da IA em armas totalmente autônomas, a Anthropic argumenta que os modelos atuais não são suficientemente confiáveis para operar sistemas letais sem supervisão humana, o que colocaria em risco as vidas tanto de militares quanto de civis.

A empresa, avaliada em US$ 380 bilhões, tem contratos de US$ 200 milhões com as Forças Armadas. O Pentágono acreditava que ela cederia após as ameaças. Mas sua recusa mostra como o Departamento de Guerra não consegue dobrar facilmente empresas do Vale do Silício, ao contrário de fornecedores militares tradicionais, que dependem de contratos de longa duração.

As empresas de IA dependem de profissionais muito qualificados, difíceis de recrutar e mais difíceis de reter. Eles mudam para outras empresas, se não concordarem com posicionamentos de suas lideranças. Além disso, os US$ 200 milhões dos militares representam apenas uma pequena porcentagem da receita da Anthropic: suas vendas corporativas em 2025 ficaram entre US$ 8 bilhões e US$ 10 bilhões.

O secretário de Guerra, Pete Hegseth, ameaçou acionar a Lei de Produção de Defesa para forçar a Anthropic a dar aos militares o que eles querem. Ela concede ao presidente dos EUA poderes emergenciais para intervir na economia do país pela defesa nacional. Nesse caso, empresas devem cumprir ordens sob pena de multas, sanções criminais, perda de contratos, apreensão de bens e até intervenção federal.

 

Revolta no Vale do Silício

A crise provocou uma reação no Vale do Silício. Funcionários da Amazon, do Google e da Microsoft enviaram carta aberta na sexta aos seus superiores pedindo que apoiem a Anthropic e rejeitem contratos que envolvam armas autônomas ou monitoramento em larga escala. Na quinta, 175 funcionários do Google e 50 da OpenAI assinaram outra carta pedindo que suas empresas se recusem a concordar com o Pentágono.

“Eles estão tentando dividir cada empresa com o medo de que a outra ceda”, dizia o documento. “Essa estratégia só funciona se nenhum de nós souber qual é a posição dos outros. Esta carta serve para criar entendimento compartilhado e solidariedade diante dessa pressão do Departamento de Guerra.”

Isso lembra um conflito ético envolvendo o Vale do Silício e os militares em 2017. O Projeto Maven usava a visão computacional da IA do Google para identificar alvos, mas com supervisão humana. Milhares de funcionários se opuseram à empresa “estar no negócio da guerra”, denunciando que a tecnologia poderia refinar ataques letais. O Google decidiu não renovar o contrato e publicou princípios afirmando que não desenvolveria a IA para armas. Mas, no ano passado, eles acabaram flexibilizados.

Agora, os militares não querem só um “Maven mais rápido”, e sim modelos para planejar e apoiar missões, guerra eletrônica e potencialmente controle de armas. E não aceitam “insubordinações” como a da Anthropic e a do Google de 2017.

O amplo uso de IA como exige o Pentágono ameaça a segurança global e os direitos humanos ao facilitar o início de conflitos com armas letais autônomas. Além de gerar um vácuo legal na responsabilização por mortes de civis, erros algorítmicos em operações militares podem ampliar conflitos de maneira rápida e irreversível.

No âmbito interno, a tecnologia impulsiona a vigilância em massa, com rastreamento de localização, contatos e preferências políticas e religiosas em escala sem precedentes. Isso cria discriminação algorítmica de minorias e a repressão de liberdades civis. Sem transparência, a infraestrutura opaca da IA inibe a participação política e pode corroer silenciosamente os pilares fundamentais da democracia liberal.

Antes de se perguntar o que a IA pode fazer pela segurança dos países, devemos perguntar o que os militares estão dispostos a fazer com a liberdade de seus cidadãos usando a IA. Se a democracia não consegue impor limites à IA em tempos de paz relativa, é improvável que faça isso em meio a uma guerra.

Se a Anthropic sucumbir à pressão, passará ao Vale do Silício o recado de que princípios custam caro demais. E aí poucos repetirão esse gesto essencial para a democracia e a vida.