Category Archives: Tecnologia

Matt Schlicht, CEO da startup Octane AI e criador do Moltbook - Foto: reprodução

Rede social sem humanos expõe medos e desconhecimento sobre a IA

By | Tecnologia | No Comments

Nos últimos dias, grandes veículos de comunicação e a Internet foram tomados pelo frenesi em torno do Moltbook, uma rede social com a inusitada característica de que apenas agentes de inteligência artificial participam, enquanto os humanos podem, no máximo, se tornar voyeurs do que os robôs lá publicam. Porém, a maioria do que as pessoas estão dizendo sobre esse caso demonstra o quanto ainda entendemos pouco da IA e como nossos medos desse desconhecimento podem capturar nossa atenção.

Os mais apocalípticos veem nessa improvável plataforma o “despertar das máquinas” que em breve nos exterminarão, enquanto outras pessoas a desdenham como um modismo desimportante. Há ainda aqueles que acham genial essa invenção de Matt Schlicht, CEO da startup Octane AI. O fato é que cada um vê nela aquilo que deseja. Mas essa pode ser uma interessante oportunidade de aprendizagem para nós.

Se você ainda não sabe do que se trata, o Moltbook é uma rede social lançada em 28 de janeiro em que apenas agentes de IA podem publicar e interagir. Pessoas limitam-se a ler o que as máquinas fizerem. Neste momento, há 1,8 milhão desses sistemas cadastrados nela, que já criaram mais de 300 mil posts e 12 milhões de comentários.

Independentemente do que seja palpável ou apenas fumaça, o fenômeno do Moltbook deveria servir para que aprendamos mais sobre o funcionamento, limites e possibilidades da inteligência artificial. Não para nos protegermos de uma improvável “revolta dos robôs”, mas para entendermos que, ao entregarmos crescentemente informações a sistemas que não compreendemos e ao delegarmos a eles decisões sofisticadas e prosaicas, abrimos mão do mais nobre de nossa humanidade.

Isso pode nos causar um prejuízo irreparável, não porque as máquinas sejam maquiavélicas, mas porque estamos nos tornando displicentes. Ao longo de milhões de anos, assumimos o controle do planeta ao raciocinarmos e decidirmos. Agora, a despeito de sua inegável capacidade, entregamos, por preguiça, insegurança ou ganância, esse nosso diferencial a máquinas estatísticas que apenas parecem inteligentes.


Veja esse artigo em vídeo:


O Moltbook foi concebido, em tese, como um ambiente experimental para observar como sistemas de IA se comportam e aprendem quando passam a conversar diretamente uns com os outros, sem participação de humanos. Essa é uma ideia atraente, porém largamente falha e até perigosa.

Qualquer pessoa que domine a tecnologia consegue burlar sua premissa básica e criar um agente de IA para atuar como um boneco de ventríloquo travestido de robô. Dessa forma, pode “contaminar” as discussões na plataforma com sua humanidade, por pura diversão ou para satisfazer alguma agenda. Segundo um levantamento da empresa de cibersegurança Wiz, cerca de 17 mil pessoas já se “infiltraram” no Moltbook.

A mesma empresa descobriu que o banco de dados da plataforma possuía falhas de segurança, permitindo que qualquer um pudesse ler e gravar nele. Era possível ainda acessar dados confidenciais, incluindo chaves de agentes, mensagens privadas e até credenciais completas para outros serviços, como os da OpenAI.

Além disso, dependendo de como foram criados, agentes de IA podem acessar arquivos, senhas e serviços online de pessoas e empresas. Se um deles maliciosamente introduzir instruções em uma postagem, elas podem ser executadas automaticamente por potencialmente milhões de agentes com acessos privilegiados.

O grande risco é que criamos agentes de IA que pensam, decidem e agem como nós e em nosso nome, inclusive com acesso a recursos sensíveis e poderosos. Se não cuidarmos bem desses valorosos assistentes, eles podem ser manipulados para ações muito destrutivas. E não estamos fazendo isso direito.

É como mandar uma criança com a chave do cofre a um covil de ladrões.

 

“Mas isto fala!”

Ao testar o telefone de Graham Bell na Exposição da Filadélfia em 1876, D. Pedro II teria exclamado “mas isto fala!” Diante do seu espanto, o imperador brasileiro determinou que a invenção chegasse por aqui no ano seguinte, fazendo do Brasil o segundo país do mundo a ter telefones, depois dos EUA.

Hoje todos sabem que quem “fala” não é o telefone, e sim o interlocutor do outro lado da linha. Mas ainda fantasiamos sobre o funcionamento da IA. E isso acontece porque ela “fala”, parece saber tudo e até simula sentimentos convincentemente.

Ainda em fevereiro de 2024, escrevi um artigo em que sugeri que “o mais espantoso na IA não é o que ela nos diz, mas ela conseguir falar”. De fato, a boa comunicação oferece um poder imenso a qualquer um (ou qualquer coisa). A civilização foi criada sobre a linguagem e depende dela para tudo. Assim, como os gatos domésticos não a dominam, eles dependem de nós para carinho, comida e uma caixa de areia limpa.

O ChatGPT mostrou ao mundo que a IA pode se comunicar tão bem e até melhor que nós. Se delegamos cada vez mais decisões, até as simplórias, a essas plataformas, elas passarão a interpretar o mundo em nosso lugar, e poderemos acreditar nelas, por mais erradas que estejam. É por isso que obviamente devemos usar o incrível poder dessa tecnologia em nosso favor, mas a decisão final sempre deve ser nossa.

Sistemas que aprendem com sistemas aceleram padrões, bons e ruins. Isso levanta questões sobre alinhamento, opacidade e auditabilidade. Quando agentes de IA passam a “conversar” em escala e sem controle, o risco é que passem a operar segundo lógicas que nós já não conseguimos acompanhar ou explicar.

A corrida das big techs pela “IA geral”, quando robôs agirão sem depender de nós e com uma capacidade muito superior à nossa, funciona como uma cortina de fumaça para problemas mais urgentes, como governança, transparência e responsabilização. O mérito do Moltbook é nos fazer pensar que o verdadeiro risco não é uma “revolução das máquinas”, mas a automação opaca a que essas empresas nos submetem.

Assim, ele é menos revolucionário tecnicamente e mais significativo culturalmente. O que devemos questionar não é se as máquinas vão nos substituir, e sim que versão de nós mesmos estamos construindo ao delegar cada vez mais nossas vidas a elas.

 

Governos de vários países tentam restringir celulares e redes sociais a crianças e adolescentes – Foto: Pixabay/Creative Commons

Após proibição dos celulares nas escolas, uso de redes sociais e da IA por jovens exige atenção

By | Educação, Tecnologia | No Comments

No início do ano letivo de 2025, a grande novidade foi a proibição de celulares nas escolas mesmo em intervalos. Agora, com as aulas deste ano prestes a começar, cresce a preocupação sobre a influência das redes sociais e até da inteligência artificial na formação dos mais jovens.

A discussão floresce em vários países. A Austrália baniu, em dezembro, as redes sociais para menores de 16 anos em qualquer ambiente, depois de um longo debate. Leis semelhantes estão sendo discutidas na França, Dinamarca, Reino Unido e Nova Zelândia.

No caso da IA, o think tank americano Centro para Educação Universal da Brookings Institution acaba de divulgar um estudo que indica que os riscos do uso da IA na educação de crianças e jovens superam seus benefícios. Segundo ele, a dependência excessiva dessa tecnologia pode afetar a capacidade dos estudantes de aprender, seu bem-estar social e emocional, suas relações de confiança com professores e colegas, bem como sua segurança e privacidade.

No Brasil, o Insper e a Escola Superior de Propaganda e Marketing (ESPM), duas das principais faculdades particulares do país, começaram 2026 proibindo dispositivos eletrônicos nas aulas de graduação, exceto em atividades acadêmicas. Na primeira, notebooks e tablets ainda são tolerados; na ESPM, nem isso. A justificativa é a grande queda no aprendizado devido à distração causada por esses aparelhos.

Essas iniciativas indicam sociedades incapazes de enfrentar os evidentes problemas que as tecnologias digitais criam na formação dos mais jovens. Mas esses recursos digitais continuam vitimando crianças e adolescentes fora da escola. Diante de uma cínica falta de colaboração das empresas que criam essas plataformas, as restrições acabam sendo necessárias, pois o problema continua existindo em qualquer tela.


Veja esse artigo em vídeo:


Na França, a Assembleia Nacional aprovou, no dia 26, a proibição das redes sociais para menores de 15 anos. O projeto está agora no Senado e, se aprovado, deve entrar em vigor até 1º de setembro, início do ano letivo no país.

“O cérebro de nossas crianças e de nossos adolescentes não está à venda”, disse o presidente francês, Emmanuel Macron. “As suas emoções não devem ser manipuladas, nem por plataformas americanas, nem por algoritmos chineses”, concluiu.

O estudo da Brookings Institution reconhece que a IA pode ser uma poderosa ferramenta de apoio pedagógico, auxiliando na alfabetização, na aquisição de novos idiomas e no desenvolvimento da escrita. Pode ainda promover a inclusão de alunos com dificuldades e de populações excluídas do ensino formal, enquanto otimiza a rotina docente. Ao automatizar tarefas burocráticas e a criação de materiais, a IA permite que os professores se concentrem na interação direta com os estudantes.

Em contrapartida, o uso excessivo da IA ameaça o desenvolvimento cognitivo, causando uma “atrofia mental”, caso os alunos terceirizem o pensamento crítico e a resolução de problemas para a máquina. A natureza bajuladora dos chatbots prejudica a capacidade de lidar com divergências e reduz a empatia, essencial nas relações humanas. Além disso, o estudo alerta para o risco de ampliação das desigualdades, pois modelos gratuitos são menos precisos, o que levanta preocupações graves sobre a saúde mental e o isolamento social de jovens que buscam companhia em algoritmos.

Segundo o levantamento TIC Educação 2024, divulgado em outubro pelo Cetic.br, ligado ao Comitê Gestor da Internet no Brasil, 70% dos estudantes do Ensino Médio usam a IA generativa no país, 37% se incluirmos os do Ensino Fundamental. Mas apenas 32% dos alunos do Ensino Médio receberam orientação dos professores sobre como usá-la em atividades escolares, com o índice desabando para 19% se considerarmos também o Ensino Fundamental.

 

O avanço das big techs

As empresas de tecnologia estão de olho na educação. A edição 2025 do estudo “Nossa vida com IA”, divulgado no dia 14 pelo Google e pela consultoria Ipsos, indicou que 72% dos brasileiros (de todas as idades) usam a IA para aprender, com 75% vendo impacto positivo na educação e 73% afirmando que ela melhora o aprendizado.

Em julho, a OpenAI, a Microsoft e a Anthropic anunciaram um investimento de US$ 23 milhões para levar mais IA ao Ensino Básico nos EUA. Obviamente isso não foi movido só por boas intenções. Elas são donas de algumas das maiores plataformas de IA, e querem que sejam muito usadas desde os primeiros anos escolares, o que potencializa os benefícios e os riscos já citados. Por isso, muitos professores americanos resistem a uma adoção massificada.

No fim do ano passado, a OpenAI lançou o “Modo de Estudo” do ChatGPT, com o objetivo de criar um ambiente em que a IA atua como um tutor, incentivando a reflexão em vez de fornecer respostas prontas. Mas, apesar de interessante, especialistas criticam o recurso por não distinguir informações corretas de erradas.

A sociedade precisa se organizar para melhorar o uso não só da IA, mas das diferentes tecnologias digitais na sala de aula. Essa integração deve ter regras claras e foco no desenvolvimento humano, não apenas na execução de tarefas. As práticas escolares devem ser repensadas para valorizar curiosidade e engajamento, e é preciso treinar professores e alunos em alfabetização digital. No caso de IA, as ferramentas devem ser menos “bajuladoras”, desafiando os estudantes a pensar criticamente.

Precisamos de políticas públicas e regulamentações que protejam a saúde cognitiva, emocional e a privacidade das crianças e dos adolescentes. Governos, educadores e pais devem assegurar que essas tecnologias digitais não amplifiquem desigualdades.

A digitalização da sociedade é irreversível, mas isso não quer dizer que ela deva acontecer de maneira descuidada, especialmente com crianças e adolescentes. Dentro da sala de aula, ela jamais pode substituir os professores, devendo estar subordinada aos educadores, que precisam ser envolvidos na busca por soluções.

Fora da escola, os pais têm um papel decisivo para apoiar um uso seguro e construtivo dos serviços digitais por seus filhos. É uma tarefa ingrata, pois eles mesmos são vítimas dos abusos nessas plataformas. Infelizmente, as big techs dão repetidas mostras de não estar interessadas em fazer movimentos necessários para soluções sustentáveis e eficientes se isso ameaçar seus ganhos bilionários.

 

Manifestantes afirmam que não se vacinar é “liberdade de escolha”, argumento comum de influenciadores antivacinas - Foto: reprodução

Influenciadores precisam deixar de ser foco de desinformação e se profissionalizar

By | Tecnologia | No Comments

O mercado de influenciadores pode estar diante de um sopro de seriedade. A ocupação cresce vertiginosamente há anos, graças à falsa ideia de que, para se tornar famoso e rico, basta ligar a câmera do celular e falar, mesmo não tendo qualquer preparo para tal. Agora isso pode mudar.

Vários países, inclusive o Brasil, estão criando leis para disciplinar, em maior ou menor escala, a atividade dos criadores de conteúdo digital. Pelo menos em tese, isso oferece algumas garantias a esses profissionais, assim como diminui práticas condenáveis, incluindo a desinformação (consciente ou não).

Essas regras ficam ainda mais importantes em tempos de inteligência artificial generativa. Graças a ela, pessoas sem qualquer conhecimento sobre determinado assunto conseguem produzir conteúdo que parece verdadeiro, mas que pode estar completamente errado. Como não são capazes de avaliar a produção da IA, passam a bobagem adiante, que pode ganhar grande escala e afetar decisivamente o público.

A OpenAI, criadora do ChatGPT, está atenta a isso. Desde novembro, ele oficialmente não oferece mais “aconselhamento” jurídico, financeiro ou sobre saúde, passando a se comportar menos como um “consultor” e mais como uma “ferramenta educacional”.

Segundo um estudo da organização de saúde americana KFF, 17% dos americanos adultos usam a IA todos os meses para informações sobre saúde (25% se tiverem menos de 30 anos), mas 56% deles não têm certeza se a informação é correta. Por isso, a mudança no ChatGPT visa evitar processos por informações erradas, mas ela impacta diretamente aqueles que usam o serviço para criar seus conteúdos digitais.

Influenciadores têm um papel central em como as pessoas se informam hoje, mas muitos seguidamente demonstram despreparo e até falhas éticas graves. Por isso, as novas regras são muito bem-vindas para profissionalizar essa atividade.


Veja esse artigo em vídeo:


No Brasil, a lei 15.325/2026, sancionada em 6 de janeiro, reconhece o “profissional de multimídia” como trabalhador multifuncional, apto a atuar em criação, produção, captação, edição, gestão e distribuição de conteúdos digitais em diversas plataformas, incluindo redes sociais, games, sites e animações. Profissionais de outras áreas que exerçam funções assim poderão pedir um aditivo em seu contrato de trabalho.

Apesar de dar reconhecimento jurídico à profissão, especialistas criticam a lei porque ela não exige nenhuma formação profissional, além de não possuir mecanismos de combate à desinformação ou deveres claros das plataformas. Isso significa que casos recentes de médicos passando informações falsas de saúde ou de influenciadores indicando apostas digitais como investimento continuarão inundando as redes.

Por outro lado, na China, desde outubro, criadores de conteúdo que queiram falar de finanças, educação, saúde ou área jurídica precisam comprovar qualificação formal na área. As plataformas digitais são obrigadas a coletar documentos que comprovem isso, verificar sua autenticidade e só então permitir esse tipo de conteúdo. Quem desrespeitar pode ter a conta suspensa, seu conteúdo apagado e receber multas que chegam a 100 mil yuans (cerca de R$ 75 mil).

O governo justifica a lei pelo alto volume de dicas enganosas, especialmente em saúde e investimentos, com o cidadão leigo não conseguindo distinguir entre um especialista e um influenciador. Assim, a influência deve deixar de ser só uma questão de popularidade e passa a se apoiar em capacitação comprovada. Isso é uma boa notícia para profissionais formados nessas áreas, que hoje concorrem com o carisma de influenciadores e até com charlatanismo digital. Por isso, analistas sugerem que esse tipo de lei pode inspirar outros países que enfrentam problemas semelhantes.

Alguma organização desse setor também pode ser encontrada em leis do Reino Unido, França, Itália, Espanha, Austrália, Nova Zelândia, Índia e Hong Kong, a maioria priorizando autorregulação com punições.

Não dá mesmo para continuar “deixando solto” um setor que, só no Brasil, “emprega” 10 milhões de autointitulados influenciadores com, pelo menos, mil seguidores. Segundo o banco Goldman Sachs, esse mercado deve movimentar quase US$ 500 bilhões (cerca de R$ 2,7 trilhões) até 2027, vindo principalmente de companhias com marketing de influência e pela monetização de plataformas de streaming ou de redes sociais.

 

Despreparo e falta de ética

De fato, grandes empresas vêm recorrendo cada vez mais a influenciadores para suas campanhas. Apesar de isso lhes garantir muita visibilidade, nem sempre o resultado é positivo, pois, ao contrário de veículos de comunicação, cujo mercado é bem regulamentado, os influenciadores se comportam como pessoas físicas sem regras. Por isso, suas ações às vezes questionáveis podem respingar na reputação das marcas.

Alguns casos emblemáticos no Brasil são o de Monark, que, em 2020, relativizou a existência de um partido nazista no país, o de Karol Conká, que apresentou um comportamento agressivo e humilhante na sua participação no Big Brother Brasil 21, ou o de Gabriela Pugliesi, que publicou um vídeo de uma festa que promoveu no momento mais crítico da pandemia de Covid-19, ironizando as regras sanitárias. Em todos eles, as companhias que os patrocinavam rescindiram contratos.

As empresas têm culpa no problema. Ao contratar influenciadores apenas pela sua exposição, ignoram o alinhamento dos valores da pessoa com os da marca. Em muitos casos, eles são conflitantes, e isso gera crises que poderiam ter sido evitadas.

Em dezembro, influenciadores de grande alcance fizeram um ataque coordenado contra o Banco Central e seus diretores, para proteger o Banco Master, que havia sido liquidado pela instituição. A maioria daqueles criadores faz publicações de fofocas, sem qualquer relação com finanças ou economia. O caso demonstrou como a falta de ética no segmento permite que se compre mecanismos para moldar a opinião pública.

Casos recentes de influenciadores de saúde vêm provocando grande prejuízo ao público, inclusive no Brasil. Além da promoção de produtos inócuos e até perigosos, médicos vêm atacando vacinas e protocolos consagrados, como a mamografia. Entre as consequências disso, está a queda da vacinação, levando ao aumento de doenças antes erradicadas, como o sarampo.

O fenômeno dos influenciadores criou a maior máquina de convencimento da história. Muito longe de configurar censura, disciplinar essa atividade é vital para que não nos afundemos ainda mais em todo tipo de desinformação, um problema que já foi banalizado. A sociedade precisa se organizar para que informações com base na ciência e bem apuradas se sobreponham ao despreparo e à falta de ética.

 

Avatares da plataforma digital Roblox, que implantou novas medidas de segurança - Foto: reprodução

Revolta no Roblox mostra que a proteção digital infantil exige mais do que barreiras virtuais

By | Tecnologia | No Comments

O Roblox é uma das plataformas de jogos mais populares entre crianças no mundo, com 151 milhões de usuários, a maioria abaixo dos 13 anos. Nas últimas semanas, implantou restrições em seu chat e exigiu verificação facial para tentar proteger seus usuários contra predadores digitais. Mas ironicamente essas medidas de segurança despertaram uma revolta visceral nas crianças, como se a proteção fosse uma afronta à sua liberdade de brincar, com protestos no próprio ambiente.

Longe de se limitar a um problema em um jogo, isso reflete dilemas de uma sociedade conectada. Casos trágicos, como o suicídio do jovem americano Ethan Dallas após sofrer extorsão iniciada no Roblox, mostram que as consequências do que ocorre nesses ambientes virtuais transbordam, muitas vezes de forma irreversível, para o mundo físico e para a estrutura familiar.

Os protestos parecem espontâneos, mas a forma coordenada como surgiram, com cartazes cheios de erros exagerados de grafia e linguagem infantil, levanta dúvidas. Não se pode descartar a hipótese de que adultos mal-intencionados, que se beneficiam da falta de regulação, estejam manipulando os menores para manter o acesso facilitado.

Embora as mudanças pareçam robustas na teoria, a eficácia dessas barreiras é questionável diante da criatividade humana para burlar regras. A tecnologia, por mais avançada que seja, frequentemente corre atrás do prejuízo, tentando remediar problemas que o próprio design da plataforma permitiu.

Resta a dúvida se tais ações vieram para resolver um problema estrutural ou apenas como uma resposta paliativa para conter uma crise de reputação. O fenômeno observado no Roblox é um microcosmo do que acontece em diversas redes sociais, no qual empresas aplicam correções superficiais para aplacar a opinião pública, enquanto a arquitetura que permite o risco permanece intacta e lucrativa.


Veja esse artigo em vídeo:


Nesse universo, crianças são expostas a riscos graves, como o aliciamento sexual disfarçado de brincadeira e a troca de favores virtuais, conhecidos como “jobs”. Eles começam como uma interação inocente em busca de moedas para comprar itens para um avatar, mas podem degenerar rapidamente para situações de abuso e exploração, em que a fronteira entre o lúdico e o criminoso se dissolve pelo aproveitamento de fragilidades, carências e imaturidade emocional típicas da infância.

Essa dinâmica não é exclusiva do Roblox, mas fica dramática ali pela natureza imersiva da plataforma. Diferentemente de um feed de uma rede social, a interação simula presença física e contato direto, o que potencializa a vulnerabilidade. A sensação de intimidade criada pelo avatar pode baixar as defesas da criança de uma maneira que um texto ou uma foto em outras redes talvez não conseguisse.

O coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM), Marcelo Crespo, explica que o Marco Civil da Internet acaba protegendo as plataformas contra a responsabilização automática pelo conteúdo de terceiros. “Mas ele não as blinda contra falhas de segurança, governança e desenho do serviço”, afirma, pois descuidos nessa arquitetura podem gerar consequências jurídicas.

A empresa argumenta que a captura de criminosos é dever do Estado, uma defesa comum entre big techs. No entanto, Pedro Teberga, professor da Faculdade Einstein e especialista em negócios digitais, contesta essa visão de neutralidade. “Ao gamificar a socialização, reduzir fricções de contato e permitir mundos criados por usuários com moderação descentralizada, a plataforma facilita estratégias de aproximação gradual típicas do aliciamento”, explica. Nesse sentido, ela atua como arquiteta do espaço e não pode transferir integralmente a responsabilidade ao Estado.

Outro ponto crítico é a coleta massiva de dados biométricos de menores para a verificação de idade. Dados biométricos não podem ser alterados como uma senha. Isso gera um passivo de segurança gigantesco e normaliza, desde cedo, a vigilância constante como pedágio para a vida digital. O risco de vazamento ou uso indevido dessas informações no futuro é uma ameaça que não pode ser ignorada.

A empresa informa que a inteligência artificial está no centro dessas medidas. Mas há questionamentos se ela realmente pode sanear esse ambiente.

 

O limite da tecnologia e o papel humano

A IA tem vantagens claras, identificando padrões, mapeando comportamentos suspeitos e agindo em escala, mas suas limitações são evidentes. “A IA atual é eficiente para identificar padrões comportamentais repetitivos, mas ainda é limitada para compreender nuances culturais, gírias locais e ambiguidades de linguagem antes que o dano ocorra”, alerta Teberga. O risco é agir sempre depois do estrago feito.

Talvez um erro fundamental seja classificar a plataforma apenas como um jogo, quando, na verdade, é uma rede social complexa. Crespo nos lembra que “quando você gamifica a sociabilidade, você também gamifica o risco”. Ao transformar a interação humana em mecânica de jogo, cria-se um terreno fértil para manipulações emocionais que escapam aos filtros tradicionais de segurança.

Muitos pais e educadores veem o Roblox como um “Lego digital” inofensivo, mas essa leitura precisa mudar, dando lugar a controles parentais, acompanhamento ativo e diálogo constante. Ensinar crianças a reconhecer desconforto e mudanças sutis de comportamento é tão importante quanto qualquer ferramenta técnica.

A nova legislação australiana que bane redes sociais para menores de 16 anos não proíbe o Roblox diretamente, mas força a empresa a endurecer suas regras para evitar sanções no país e, por consequência, em outros mercados. Isso prova que uma pressão regulatória bem desenhada pode obrigar as gigantes da tecnologia a priorizarem a segurança em detrimento do engajamento irrestrito.

O Roblox evidencia que, quanto mais lúdico for um ambiente, maior a percepção de segurança e menor a vigilância. Mas a sociedade precisa entender que as plataformas digitais não são neutras. Todas são criadas para engajar, monetizar e reter usuários.

Este caso revela como tecnologia, mercado e infância podem se entrelaçar de forma perigosa. Precisamos discutir o dever de cuidado, limites da automação e o papel ativo de plataformas na construção de ambientes digitais mais saudáveis. Proteger crianças não é apenas bloquear chats ou treinar algoritmos. Temos que repensar os espaços digitais, para quem eles existem e quais valores estamos normalizando desde cedo.

 

Imagens reais (à esquerda) e gerada por IA (à direita) do ditador Nicolás Maduro chegando preso a Nova York – Fotos: reprodução

Em um mundo dominado por IA, redes sociais e escroques, o jornalismo se torna essencial

By | Jornalismo, Tecnologia | No Comments

Este ano eleitoral mal começou e alguns acontecimentos já deixaram claro que a combinação de inteligência artificial, redes sociais, oportunismo e mau-caratismo enterraram a verdade em um bloco de concreto que o cidadão comum não consegue romper. Nesse cenário, o jornalismo surge como o contraponto urgente, e, por isso mesmo, sofre ataques de quem se beneficia da enorme mentirada.

O primeiro caso veio com a prisão de Nicolás Maduro, que desembarcou em Nova York usando um agasalho de uma famosa marca americana, que inundou as redes sociais com a foto do ditador venezuelano usando o seu produto. Até aí, é o marketing sendo marketing. Mas não se pode ignorar como isso capturou o debate digital com uma mensagem do tipo “preferida até pelos criminosos”. E houve ainda as incontáveis imagens falsas dessa prisão geradas por IA, aumentando a desinformação.

Pior que isso foi o recente ataque orquestrado nas mesmas redes sociais contra o Banco Central e autoridades financeiras envolvidas com a liquidação do Banco Master. Até perfis de fofoca tentaram tirar a legitimidade de uma ação bem-feita.

Há ainda as agressões contra a jornalista Malu Gaspar, de “O Globo”, por realizar seu trabalho jornalístico, ao apresentar fatos suspeitos envolvendo um ministro do Supremo Tribunal Federal (STF) e sua esposa com o mesmo banco. Esses atentados se enquadram em três categorias ou na combinação livre entre elas: desconhecimento do trabalho jornalístico, manipulação das massas ou má-fé de interessados no caso.

Qualquer que seja o motivo e diante do enorme barulho que esses temas estão criando, é preciso esclarecer como funciona o jornalismo e por que ele se torna, cada vez mais, essencial para a sociedade, especialmente com a proximidade das eleições.


Veja esse artigo em vídeo:


Os detratores de Gaspar afirmam que ela atua com interesses políticos, visando desmoralizar ministros do STF, e que ela faz acusações sem provas. Cabe então explicar como a imprensa funciona e por que ela é tão fundamental, especialmente em sociedades como a nossa, que se tornam tão obtusas por ações nas redes sociais.

Um jornalista investiga os fatos e eventualmente coleta informações que podem servir como provas, mas esse não é o seu trabalho. Quem produz provas é a autoridade policial, que pode ser provocada a agir por informações da imprensa. Mas o jornalista não é policial. Sem tais informações, talvez nunca houvesse investigação e justiça em um dado caso.

Um dos recursos mais valiosos dessa investigação são as fontes, pessoas que têm informações privilegiadas sobre um assunto e interesse em divulgá-las. Elas usam o jornalista para que aquilo ganhe notoriedade, enquanto o jornalista usa a fonte para obter informações valiosas que, de outra forma, continuariam restritas.

Shakespeare escreveu que “há mais coisas entre o céu e a terra do que sonha a tua filosofia.” Se hoje a sociedade busca a verdade nesse angu de caroço do Banco Master, é porque algumas pessoas sempre souberam de tudo nesses bastidores, e contaram pelo menos parte dela à jornalista, que deu visibilidade a essas informações, ampliadas depois por outros veículos, como o Estadão e a Folha.

Os agressores de Gaspar exigem que ela divulgue quem são essas pessoas, mas esse pedido é descabido. A despeito do seu interesse em divulgar o que sabem, muitas não podem aparecer, e esse anonimato é garantido pelo artigo 5º, inciso XIV da Constituição, que estabelece que “é assegurado a todos o acesso à informação e resguardado o sigilo da fonte, quando necessário ao exercício da profissão”. Sem essa proteção, muita gente guardaria para si informações importantes.

O grande desafio do jornalista é não ser manipulado por uma fonte, interessada em propagar uma mentira. O profissional deve confirmar que a informação é verdadeira e de interesse público. Em caso afirmativo, tem a obrigação de publicá-la, para que, dessa forma, a sociedade corrija imperfeições e melhore. Foi o que Gaspar fez. E, depois dela, uma enxurrada de fatos suspeitos ou mal explicados corroborou tudo.

Vale dizer que os que a acusam de interesses políticos são os mesmos que aplaudem a imprensa quando ela usa os mesmos métodos para expor falcatruas “do outro lado”. E a boa imprensa fiscaliza qualquer tipo de poder, não importa quem estiver lá.

 

Jornalismo versus redes sociais

De 15 anos para cá, aqueles que se beneficiam de uma sociedade sem essa visão emplacaram a ideia de que, com as redes sociais, o cidadão não precisaria mais da imprensa, pois teria acesso direto à origem dos fatos. Infelizmente boa parte da população comprou essa lorota. E casos como os que analisamos aqui demonstram que, enquanto o jornalismo profissional insiste em desenterrar a verdade, as redes sociais massacram a sociedade com mentiras.

Foi o que aconteceu no dia 27, em um ataque coordenado de perfis com milhões de seguidores contra instituições e autoridades ligadas à liquidação do Banco Master. Limitado a 36 horas, ele foi identificado pela Febraban e divulgado pelo Estadão. Alguns influenciadores vieram a público para dizer que lhes foi oferecido muito dinheiro para participar do ataque à reputação dos envolvidos. Vale dizer que muitos dos perfis envolvidos não tratam de finanças: a maioria se dedica a fofocas.

Como de costume, a massa alheia às notícias e com seus interesses cuidadosamente inflamados pelos produtores de desinformação repercutiu as mentiras. De novo, enquanto os jornalistas sérios informam, as redes sociais deformam. Infelizmente a manipulação é tão grande, que a turba não vê que se tornou massa de manobra.

Agora, com as eleições chegando, tudo isso se tornará café pequeno e as imagens falsas de Maduro parecerão piadinhas. A inteligência artificial não para de dar mostras de que infelizmente também se presta a refinar a desinformação, para que se torne absolutamente crível, incluindo aí a produção de fotos, áudios e até vídeos que retiram de cada um de nós a capacidade de identificar uma verdade diante de nossos olhos.

Nesse mundo de cacofonia extrema, pulverizado com armadilhas da “hipersuasão” descrita pelo filósofo da informação Luciano Floridi, em que a IA capta nossos valores e desejos mais íntimos para nos enganar, a curadoria cuidadosa de profissionais da imprensa desponta como esperança de fugirmos da manipulação. E isso vale para todo o espectro político, e não apenas um “lado”.

Afinal, se as redes sociais construíram seu negócio sobre a desinformação ruidosa e visceral disseminada por criminosos, os jornalistas sérios continuam tentando encontrar os fatos muito além das obviedades do nosso cotidiano, seja digital ou não.

 

Em 2026, a IA continuará no trono da tecnologia, mas seu reinado será marcado pela automação de decisões – Imagem: Paulo Silvestre

Em 2026, a IA avançará sobre decisões empresariais e da sociedade

By | Tecnologia | No Comments

Neste ano que está começando, a inteligência artificial continuará no trono da tecnologia, mas seu reinado será muito diferente do que vimos até agora. Se nos últimos anos, ela impressionou por gerar textos, imagens e códigos, agora o debate se deslocará para a automação de decisões, a delegação de tarefas cognitivas e a reorganização do poder dentro das empresas e da sociedade, algo muito mais sensível.

Essa é a conclusão de conversas que tive com executivos de quatro das principais empresas de tecnologia que operam no Brasil. Essas lideranças apontam para um horizonte em que a “IA agêntica” não será mais uma novidade, mas um motor central de estratégias corporativas. A automação não mais se restringirá a tarefas repetitivas, passando a assumir processos cognitivos de julgamento e orquestração.

A pressão por produtividade não diminuiu, os custos de operação aumentaram e a paciência com experimentos sem retorno se esgotou. A evolução dos processadores especializados, a pressão por eficiência energética e a necessidade urgente de governança real sustentam essa visão. Por isso, as empresas buscam sistemas menores, mais inteligentes e capazes de operar dentro de casa, garantindo segurança e conformidade com leis cada vez mais rígidas.

Embora estejamos falando de tecnologia, o impacto na vida das pessoas e na rotina das empresas será profundo e, por vezes, invisível. Quando um sistema decide sozinho se concede um empréstimo, aprova um tratamento médico ou freia um carro autônomo, ele desloca o eixo da responsabilidade humana. Passamos a delegar à IA o julgamento moral e a capacidade de agir no mundo físico.

Isso nos coloca diante de um dilema que ultrapassa a engenharia e entra no campo da ética e da política. A pergunta que definirá 2026 não será, portanto, se esses sistemas serão eficientes, mas quem responderá quando eles inevitavelmente errarem.


Veja esse artigo em vídeo:


Nesse cenário, o próprio sucesso deve ser repensado. Sandra Vaz, presidente da Red Hat Brasil, afirma que “a eficiência operacional continua relevante, mas ela deixa de ser suficiente”. Para ela, em 2026, “as empresas terão de medir o impacto estratégico e ser muito criteriosas na escolha dos dados utilizados para criar novas experiências para o cliente”. Afinal, decisões ruins automatizadas em escala podem destruir o valor de uma companhia em pouco tempo.

Rui Botelho, presidente da SAP Brasil, toca exatamente nesse ponto ao projetar a consolidação de uma IA capaz de orquestrar tarefas “do fechamento financeiro à gestão de talentos, sempre com governança e rastreabilidade”. Ele destaca que o diferencial estará em “combinar essa automação com dados de negócio confiáveis”. A credibilidade torna-se, portanto, uma moeda valiosíssima nesse novo mercado.

Essa transformação é descrita por Fabricio Lira, diretor de IA e Dados da IBM Brasil, como a criação de “ecossistemas onde múltiplos agentes colaboram, compreendendo dinâmicas de contexto, intenção humana e cenários complexos”. Para ele, isso permitirá “oferecer decisões autônomas e seguras em tempo real”.

Perceba que a palavra-chave é “decisão”. Estamos saindo da era da venda de software (Software as a Service) para a venda de trabalho (Service as a Software), em que a máquina entrega o resultado final, e não apenas o meio para alcançá-lo. Isso exigirá novos processos para gerenciar conflitos entre agentes e garantir que a autonomia da IA não quebre a lógica de negócios ou a segurança institucional.

Marco Stefanini, CEO Global e fundador da Stefanini, reforça essa visão, citando que “a previsão da IDC é de que 65% das empresas adotarão esses agentes até o final de 2026, com foco em valor imediato e apoio à decisão”. No entanto, ele faz um alerta fundamental sobre a natureza dessa mudança, lembrando que “IA não é mágica, é método”. “Modelos genéricos, treinados apenas com conteúdo da Internet, não dão conta da complexidade das operações corporativas”, explica.

 

Decisão como produto

Essas visões convergem para um cenário em que sistemas multiagentes começam a decidir em cadeia, coordenando ações, priorizando caminhos e resolvendo conflitos em tempo real. O ganho de eficiência é evidente, mas cria-se um sério risco de naturalização da delegação moral.

Se um conjunto de algoritmos toma decisões, cria-se uma zona cinzenta em que “ninguém decidiu sozinho”. Para mitigar isso, a governança deixará de ser um discurso bonito de marketing para se tornar um requisito de engenharia. Sem isso, empresas enfrentarão não apenas crises de imagem, mas barreiras legais severas.

Por trás desse debate ético e regulatório, crescerá exponencialmente uma disputa material em torno de uma tecnologia vendida como “imaterial”. A IA consome quantidades absurdas de energia e depende de escassos processadores avançados. A infraestrutura definirá o poder, e a soberania digital dos países dependerá de quem controla esses recursos.

Além das máquinas, há o desafio humano. Botelho ressalta que “nada disso se sustenta sem investimento contínuo em mão de obra qualificada”. Enquanto os agentes assumem tarefas cognitivas, os humanos precisam ser requalificados para gerenciar, auditar e corrigir essas inteligências. Vaz complementa dizendo que a tecnologia ficará mais sofisticada, com ferramentas “orientadas para a escala dos negócios e a capacitação das equipes”.

Com tudo isso, em 2026 nos depararemos com escolhas que não poderemos postergar. Precisaremos decidir quanta autonomia estamos dispostos a delegar às máquinas, como garantir que a eficiência não atropele direitos fundamentais e quem terá poder para treinar modelos em escala. A IA continuará ficando mais poderosa, mas continua valendo a máxima de que tecnologia sozinha não resolve nada.

De agora em diante, essa história exigirá menos deslumbramento e mais responsabilidade coletiva. Empresas, governos e sociedade civil precisarão construir juntos os mecanismos de supervisão, auditoria e responsabilização que ainda não existem. Não há atalho para essa maturidade, e fingir que as empresas de tecnologia se autorregularão é uma fantasia inocente e perigosa.

Ainda bem que estamos a tempo de fazer as escolhas certas.

 

Neste ano, a IA deixou de ser “divertida” para se tornar uma ferramenta de trabalho cobrada por eficiência – Imagem: Paulo Silvestre

Esse foi o ano em que a IA encontrou o caminho do lucro

By | Tecnologia | No Comments

Se 2023 foi o ano do espanto com a inteligência artificial e 2024 marcou a democratização do acesso a essa tecnologia, 2025 foi aquele em que ela deixou de ser uma “atração de circo”, capaz de criar poemas ou imagens divertidas, para se tornar uma ferramenta de trabalho séria, cobrada por eficiência, escala e resultados financeiros. A “mágica” foi substituída pelo início do retorno sobre os investimentos.

O mercado termina o ano com essa ideia consolidada, conforme me disseram, há alguns dias, executivos de algumas das principais empresas de tecnologia que operam no Brasil, todas diretamente envolvidas na construção da infraestrutura digital que sustenta empresas, governos e serviços críticos no país.

As corporações perceberam que ferramentas genéricas, como o ChatGPT, eram interessantes, mas insuficientes para resolver dores complexas de negócios. Foi necessário organizar dados e adotar sistemas que não apenas “falassem”, mas que “fizessem”. A busca por eficiência operacional em um cenário econômico desafiador empurrou a IA para dentro das engrenagens vitais das companhias, saindo dos laboratórios de inovação para o chão de fábrica e os departamentos financeiros.

No início de 2025, a aposta era de que a IA começaria a entregar resultados, o que, de fato, vem se confirmando. Agentes especializados ganharam espaço, a integração ao dia a dia avançou e o discurso ficou mais sóbrio. O que não aconteceu com a mesma velocidade foi a maturidade dos dados e a simplificação da adoção, ainda travadas por legados e decisões mal resolvidas do passado.

Contudo, ao integrar a inteligência artificial nos processos de decisão, as companhias descobriram que a tecnologia é a parte fácil do processo. O mais difícil acaba recaindo na cultura empresarial e na responsabilidade de delegar escolhas a uma máquina. Isso exige de nós ética, para não perdemos o controle dos rumos de nossas vidas.


Veja esse artigo em vídeo:


A necessidade de mudança de postura nas pessoas está clara para quem comanda essas transformações. Para Rui Botelho, presidente da SAP Brasil, a IA saiu do “piloto” para a escala, com foco em produtividade, qualidade de decisão e retorno mensurável. “As empresas passaram a priorizar casos de uso integrados ao dia a dia, em finanças, compras, RH, supply chain, e não apenas projetos experimentais isolados”, destaca.

Marco Stefanini, CEO Global e fundador da Stefanini, corrobora a ideia. Para ele, o mercado deixou a fase de encantamento com os modelos generativos e entrou em outra, mais madura e pragmática. “Quando se parte de um problema concreto, com dados estruturados e metas claras, o valor aparece”, afirma. Por outro lado, “quando se parte da tecnologia pela tecnologia, os projetos emperram”.

Um dos principais motores dessa maturação da IA foram os agentes, sistemas capazes de planejar e executar tarefas específicas de maneira autônoma, monitorando o ambiente e tomando decisões para atingir objetivos com pouca ou nenhuma intervenção humana. No começo do ano, eles eram a grande aposta do mercado, que acabou se concretizando ao longo desses 12 meses.

Fabricio Lira, diretor de IA e Dados da IBM Brasil, explica que esses sistemas permitem que as empresas automatizem processos complexos sem intervenção humana constante. Não se trata de um chatbot que responde dúvidas, mas de um robô que planeja e executa ações em cadeias inteiras. “Isso impulsiona a produtividade em escala global, reduzindo custos operacionais em diversos setores, enquanto aborda desafios éticos por meio de frameworks de IA responsável”, explica.

Mas nada disso se sustenta sem uma base sólida. Sandra Vaz, presidente da Red Hat Brasil, lembra que o hype da IA foi importante para que empresas reforçassem o uso de tecnologias estruturais, como nuvem híbrida, automação e modelos de negócios abertos. “As lideranças precisam abandonar modelos rígidos e adotar uma cultura baseada em colaboração, experimentação e decisões orientadas por dados”, sugere.

A IA deixou de ser uma “solução procurando um problema” para se tornar a resposta estratégica para dores reais. Mas ela, por si só, não salva uma cultura organizacional tóxica ou obsoleta.

 

A importância dos dados

Ao longo do ano, falou-se muitíssimo da importância de dados de qualidade alimentando a IA. De fato, ela só funcionou bem onde houve informações organizadas e confiáveis. Sem elas, o discurso continuou maior do que o impacto. A IA começou a entregar, mas apenas para quem fez a lição de casa de organização e processos.

Terminamos 2025 com uma IA menos “mágica” e mais “operária”. Isso é bem-vindo, pois tira a discussão do campo da ficção científica e a coloca na mesa de reunião da diretoria, onde orçamentos e responsabilidades são definidos. A tecnologia começa a se tornar invisível e onipresente, como a eletricidade, um sinal de amadurecimento.

No entanto, precisamos ficar atentos a armadilhas ligadas a essa eficiência. Se os agentes autônomos estão tomando decisões, eles precisam ser auditados. O avanço técnico parece estar chegando, agora nossa ética precisa alcançá-lo.

Ao chegar ao fim do ano dessa forma, a IA deixa a lição incômoda e necessária de que não há tecnologia salvadora, nem atalho para maturidade digital. O que existe é trabalho duro, escolhas às vezes difíceis e responsabilidade compartilhada.

Para empresas, gestores e a sociedade como um todo, o ensinamento é que deve haver menos deslumbramento e mais critério. A IA não resolve tudo, mas diferencia quem fez os movimentos necessários de quem apenas acreditou no discurso.

Talvez a lição mais importante de 2025 seja que a IA só é transformadora quando conecta tecnologia, governança e humanidade, e precisa ser boa para todos. Enquanto executivos comemoram ganhos de produtividade e novos modelos de negócio, trabalhadores encaram uma requalificação acelerada e muitas vezes difícil.

A sociedade observa, ainda sem clareza, quem se responsabilizará quando decisões automatizadas falharem. De agora em diante, dependeremos menos da tecnologia em si e mais de como escolheremos usá-la. E isso, felizmente, ainda está em nossas mãos.

 

O filósofo italiano Luciano Floridi, que afirma que a IA pode ser usada para o que chama de “hipersuasão” – Foto: Creative Commons

Em um ano eleitoral, IA deve se tornar uma máquina de desinformação

By | Jornalismo, Tecnologia | No Comments

Estamos com 2026 batendo às nossas portas, ano de Copa do Mundo e de eleições, inclusive presidenciais. Como acontece de maneira crescente desde 2018, essa campanha será fortemente influenciada pela desinformação nas redes sociais, agora potencializada pela inteligência artificial.

Infelizmente, a mesma IA que nos oferece recursos incríveis também se presta àqueles que se beneficiam de uma população ignorante e contaminada por fake news. Nossa capacidade de nos mantermos bem-informados sofre dupla ameaça: a de conteúdos propositalmente falsos, porém mais críveis, e a de fontes pouco confiáveis capturando crescentemente a nossa atenção.

Nesse caldo, surgem pretensos “veículos de comunicação” totalmente criados por inteligência artificial, dispensando a ação de jornalistas ou de qualquer ser humano. Eles propõem que, ao delegar para a máquina a escolha dos assuntos e a produção dos conteúdos, seriam livres dos vieses que toda pessoa carrega e, por isso, mais confiáveis e relevantes que os veículos jornalísticos profissionais.

Para uma mente desavisada, isso pode parecer uma grande ideia. Infelizmente, ela, por si só, é falsa de diferentes formas. Por isso, penso que os criadores dessas plataformas são, no melhor dos casos, inocentes ou ignorantes e, no pior, intelectualmente muito desonestos. Qualquer que seja a situação, suas propostas enfraquecem o jornalismo e tornam a população ainda mais suscetível à manipulação de grupos de poder, algo que se torna mais perigoso em ano de eleições.

Vale observar que, quanto mais poderosa se torna a inteligência artificial, mais importante fica a nossa humanidade, para preservarmos o nosso protagonismo na sociedade. Ao abrirmos mão de nosso senso crítico, corremos o risco de sermos dominados pelas máquinas e –o que é pior– por pessoas que aprenderam a usá-las para impor seus interesses. E infelizmente é o que está acontecendo.


Veja esse artigo em vídeo:


Já em 2024, o filósofo Luciano Floridi, diretor do Centro de Ética Digital da Universidade de Yale (EUA), publicou um artigo em que aprofundou o termo “hipersuasão” para descrever esse problema. O italiano, uma das maiores autoridades globais na filosofia da informação, considera a IA a máquina perfeita de convencimento, pela sua capacidade de nos conhecer profundamente e de produzir conteúdos muito convincentes a partir das características e valores de cada indivíduo.

“A avaliação do poder de hipersuasão da IA é negativa e até potencialmente aterrorizante, por causa de todos os atores malignos que poderiam usá-la para os piores tipos de atos horríveis”, escreveu Floridi. “Milhões de pessoas poderiam estar sujeitas a tal hipersuasão e incapazes de resistir a ela criticamente”, acrescentou.

Para ele, “em uma sociedade decente, as formas aceitáveis de hipersuasão deveriam ser regulamentadas, enquanto as inaceitáveis deveriam ser banidas”. Floridi acredita que pessoas bem-educadas e engajadas minimizariam esse risco, mas reconhece que isso é utópico. “Um público mais instruído, que exprima coletivamente preocupações e participe em discussões sobre a utilização ética da IA como tecnologia persuasiva, pode influenciar os debates políticos e os processos democráticos.”

Um exemplo de veículo de comunicação totalmente feito por IA é o NewsGPT, cujo slogan é “a verdade não humana”. Sua descrição diz que “por ser uma plataforma orientada por IA, ele se baseia em dados e algoritmos –não em humanos– para gerar artigos jornalísticos, eliminando opiniões pessoais e agendas”. Afirma ainda que “tem a capacidade de processar enormes volumes de informação de diversas fontes, resultando em cobertura de notícias 24 horas por dia, em todo o mundo”.

Não é o que acontece, a começar porque, em muitos dias, o serviço não publica notícia alguma. Suas produções rasas têm apenas três parágrafos, com textos e imagens com erros grosseiros. Além disso, não há nada relevante nos assuntos. Neste momento, entre seus destaques, estão textos sobre um casal que morreu em um incêndio em uma sauna em Tóquio, um rapper americano que foi preso na Romênia por fumar maconha no palco e o jogo de abertura da Copa Africana de Nações.

A plataforma incentiva seu público a denunciar o que considere notícias falsas. Mas as pessoas raramente têm preparo para identificar isso. É comum disseminarem o que gostam, mesmo que seja mentira, e denunciarem o que lhes desagrada, ainda que verdadeiro. Isso destrói a premissa de imparcialidade e precisão da plataforma.

 

Antijornalismo

O desserviço prestado pelo NewsGPT continua quando ele propõe criar “notícias personalizadas, adaptadas às preferências de cada espectador (…) entregando um noticiário personalizado, feito especialmente para você”.

Novamente, isso parece uma boa ideia. Mas o bom jornalismo nunca pode manter o público em sua zona de conforto. As pessoas precisam ser informadas sobre tudo que importa, mesmo que elas não gostem. Infelizmente, além de coisas divertidas, o mundo está repleto de casos tristes ou incômodos, que precisam ser conhecidos.

As “bolhas de filtro”, promovidas pelo NewsGPT como um diferencial, são, na verdade, a raiz da polarização patológica em que as redes sociais lançaram o mundo ao longo dos últimos 15 anos. Com seus algoritmos exibindo apenas o que cada um gosta, as pessoas abandonaram o jornalismo sério, que insiste em lhes mostrar o mundo como ele é, para abraçarem alegremente a ilusão de mentiras confortáveis.

Não podemos esquecer que, a despeito das falácias sobre as quais esses falsos veículos de comunicação se constroem, a própria IA possui vieses em sua concepção. A tecnologia os herda dos dados de seu treinamento, dos algoritmos e de escolhas humanas de design, mesmo que busque mitigá-los com verificação cruzada.

Não há garantias de que o NewsGPT não esconda uma agenda política, pois ele não divulga detalhes sobre seus acionistas, algoritmos ou auditorias externas de neutralidade. Mesmo assim, propostas como essa enfraquecem o jornalismo tradicional, pois as pessoas se acostumam a consumir um pretenso noticiário focado em seus gostos. Ao abandonarem os veículos sérios, eles ficam cada vez mais descapitalizados, perdendo a capacidade de fazer um bom trabalho informativo.

“O risco é que a hipersuasão explore as vulnerabilidades dos indivíduos ou os oriente para decisões contrárias aos seus interesses”, alerta Floridi. “Aproveitá-la de forma frutífera e responsável é factível, a questão em aberto é se o faremos”, conclui.

Mas infelizmente muita gente usará as redes sociais e a IA para mentiras confortáveis.

 

O filósofo belga Mark Coeckelbergh, uma das maiores autoridades do mundo em ética da IA - Foto: Victor Lopes/Creative Commons

“Ética líquida” normalizada pelo mundo digital ameaça avanços da sociedade

By | Tecnologia | No Comments

Em meio a tantas discussões sobre o avanço cognitivo da inteligência artificial, sobre como ela está transformando o trabalho e os negócios, e até como ela parece ser capaz de nos substituir em qualquer coisa, a ética se sobressai como algo que ainda nos separa das máquinas. Por mais que a IA até simule convincentemente emoções, ela não as sente de fato.

A ética fica ainda mais distante dessa tecnologia. O problema é que, de uma década para cá, com as redes sociais, e mais acentuadamente agora, com a IA, cresce o número de pessoas que vivem sob o que chamo de “ética líquida”, que se flexibiliza e até desaparece para atingir objetivos pessoais. Se perdermos a nossa ética, abriremos mão daquele que é nosso maior diferencial frente às máquinas.

Nesta sexta, debati sobre isso com meu ex-professor de ética, o jornalista e escritor Jorge Tarquini. Em um encontro mais rico que qualquer conversa com uma plataforma de IA, analisamos essas transformações que o mundo digital promove em todos nós, em maior ou menor escala, e como isso pode criar problemas bem reais na sociedade.

Isso não pode ser um detalhe em nossas vidas. Nenhuma sociedade avança sem ética, ou as pessoas partiriam rumo à anarquia ou à bestialidade. Infelizmente, vemos o crescimento de ambos no nosso cotidiano, desembocando em violência, intolerância e egoísmo.

A IA pode nos ajudar muito pela sua execução eficiente. Mas não podemos nos comportar como ela, sob o risco de matarmos nossa humanidade.


Veja esse artigo em vídeo:


A ética não se resume a um conjunto de regras aplicadas mecanicamente. Ela nasce da experiência humana, do conflito entre valores, da consciência do outro e da capacidade de assumir responsabilidade por escolhas que afetam vidas reais. Ética envolve intenção, contexto, empatia e, sobretudo, a possibilidade de responder moralmente pelos próprios atos.

A inteligência artificial, por sua vez, calcula, otimiza, prevê e classifica com base em dados, objetivos e restrições definidos por pessoas. Mesmo ao executar padrões complexos, ela não compreende o sentido moral de suas ações. Um algoritmo não sente culpa, não reconhece injustiça e não pode ser responsabilizado pelo que executa.

Portanto, a IA não pode ser ética. Mas ela pode ser eticamente orientada, por desenvolvedores e usuários, esses sim, éticos. E aí mora o grande dilema atual. Com tanto poder que a IA e as redes sociais nos oferecem, pessoas antiéticas sequestraram o ambiente digital para distorcer a moral da sociedade e obter ganho próprio. E a população se deixa manipular por isso.

Como Tarquini disse, “as redes sociais são a nossa cachaça”, pois elas achatam nossos limites morais. Com isso, realizamos no ambiente digital práticas condenáveis que jamais faríamos “olho no olho”.

Ele lembrou também que reproduzir exaustivamente mantras e dogmas nas plataformas online diminuem o pensamento crítico. Esperar pelo contrário disso seria como “esperar que o ovo se transforme em omelete sozinho”, disse o professor.

 

“Liquefação da vida”

Disso tudo, extrapolei os conceitos de vida líquida do filósofo polonês Zygmunt Bauman, criando a ideia da “ética líquida”. Valores que antes eram sólidos em nossas vidas (e precisam continuar sendo) se tornam fluidos, adaptáveis à conveniência de nossos objetivos, mesmo os mais simplórios, moldando-se ao formato do algoritmo para obtermos migalhas de atenção.

Essa dinâmica afeta a todos, mas é devastadora para os jovens, cuja identidade ainda está em formação. Além disso, esse fenômeno não se restringe aos indivíduos, contaminando instituições, empresas e governos.

Vemos isso claramente na Europa, que historicamente liderou a regulação de direitos digitais, mas que agora cede às pressões das big techs e flexibiliza suas leis. O medo de perder a corrida tecnológica está servindo de justificativa para afrouxar a ética do desenvolvimento responsável.

Essa corrida desenfreada ignora o alerta do filósofo belga Mark Coeckelbergh sobre acreditarmos em um “agenciamento moral” da IA. Estamos atribuindo a sistemas automatizados decisões que exigem sensibilidade humana, redefinindo nossa própria vulnerabilidade.

Uma tecnologia que aprende demais sobre nós e é usada sem freios éticos torna-se uma arma de manipulação comportamental sem precedentes. E assim esquecemos da importância da nossa ética.

É uma triste realidade ver líderes políticos e empresariais se tornarem os maiores motores dessa flexibilização moral. Eles utilizam a potência das plataformas digitais não para o bem comum, mas para atingir objetivos mesquinhos, normalizando a violência retórica e a polarização.

Em um mundo onde as redes sociais ensinaram todos a falar demais e a ouvir pouco, a ética termina por se tornar um obstáculo inconveniente. A situação se agrava quando isso extrapola os limites do digital, aumentando e normalizando a violência, a intolerância e outros comportamentos que crescem no noticiário.

Não se trata de demonizar a tecnologia, e sim de reconhecer que eficiência sem limites morais corrói a sociedade. A pergunta mais honesta, portanto, não é se a inteligência artificial pode ser ética, mas se nós estamos sendo, ao colocá-la para decidir temas cada vez mais sensíveis sem governança adequada, sem transparência real e sem debate público consistente.

A IA precisa ser eticamente controlada, o que exige habilidades que nenhuma máquina possui, como consciência moral, compromisso com o outro e coragem para assumir consequências. Somos os responsáveis, portanto, por “tornar a IA mais ética” e por nos cuidar para que sua “eficiência a qualquer custo” não mate esse nosso grande diferencial.

 

Para Zygmunt Bauman, as relações frágeis digitais destroem o bem comum - Foto: Narodowy Instytut Audiowizualny/Creative Commons

Proibição australiana de redes sociais a jovens reflete o desespero de um país com os males digitais

By | Tecnologia | No Comments

Nesta quarta (10), começa a valer a lei australiana que proíbe que pessoas com menos de 16 anos acessem qualquer rede social. Extremista para alguns, inócua para outros, vejo essa medida como um movimento desesperado de uma sociedade que não sabe mais como lidar com os notórios males que essas plataformas causam às pessoas, especialmente os mais jovens. Diante do cinismo e da falta de colaboração das big techs, a Austrália decidiu “cortar o mal pela raiz”.

Enquanto isso, a Europa é pressionada pelo governo americano para afrouxar suas leis que protegem cidadãos contra abusos dessas companhias. A iniciativa australiana pode assim definir um novo marco civilizatório contra um grave problema que afeta todos os países, mas cujos governos repetidamente falham em encontrar soluções.

Ao contrário do que muitos dizem, não se trata de “perseguição” a essas empresas. Há apenas alguns dias, por exemplo, documentos de um processo judicial nos Estados Unidos revelaram a postura da Meta diante dos resultados de um estudo interno. Segundo ele, adolescentes que ficaram uma semana sem Facebook relataram menos depressão, ansiedade e solidão. Mas em vez de publicar os resultados e buscar soluções, a empresa enterrou o estudo, alegando falhas metodológicas.

Nada disso é isolado. Apesar dos benefícios que essas plataformas também nos oferecem, é inegável que elas distorcem relacionamentos. Tanto que as “palavras do ano” recentemente escolhidas pelos prestigiosos dicionários Oxford (“isca de raiva”) e Cambridge (“parassocial”) descrevem diferentes facetas dessa mudança.

Resta saber se a nova lei australiana conseguirá reduzir, pelo menos entre os mais jovens, a deterioração da saúde mental provocada pelas redes sociais, e se isso será replicado por outros países, a despeito da pressão americana.


Veja esse artigo em vídeo:


A expressão “isca de raiva” (“rage bait”, no original em inglês) significa conteúdo online “deliberadamente criado para provocar raiva ou indignação ao ser frustrante, provocativo ou ofensivo”, como uma prática intencional na disputa por atenção. Os organizadores do Dicionário Oxford explicaram que essa prática triplicou neste ano e que, se antes a Internet atraía a atenção pela curiosidade, agora ela sequestra e influencia nossas emoções mais negativas, como raiva e ódio.

“Parassocial”, por sua vez, representa sentimentos de intimidade unilaterais que muitas pessoas projetam em celebridades. Apesar de não ser algo novo, isso se tornou muito mais comum graças às redes e, mais recentemente, com a inteligência artificial, com pessoas que passam a se relacionar afetivamente com chatbots.

A nova lei australiana responsabiliza as próprias big techs por verificar a idade dos usuários e impedir que menores acessem as redes sociais, sob pena de multas que podem chegar a 50 milhões de dólares australianos (cerca de R$ 181 milhões). Meta e Google já iniciaram a remoção preventiva de perfis. Com ela, o governo local admite tacitamente que o ambiente digital se tornou tóxico demais para mentes em formação.

Isso nos remete imediatamente à profética declaração de Umberto Eco em 2015, de que a Internet havia dado voz a uma “legião de imbecis”. O drama atual é que as redes sociais não apenas promoveram o “idiota da aldeia” a portador da verdade, como sugeriu na época o filósofo italiano, mas o transformaram em um influenciador rentável. O “rage bait” industrializa a estupidez, com a indignação superando os fatos. A verdade perde seu valor intrínseco e torna-se apenas uma ferramenta performática para gerar engajamento.

O novo regime afetivo, moldado por algoritmos que amplificam extremos, corrói vínculos silenciosamente. O filósofo polonês Zygmunt Bauman descreveu essa “liquefação” da vida, em que relações frágeis servem ao mercado, mas destroem o bem comum. Ao nos afastar do real, as redes substituíram sentimentos verdadeiros por emoções performáticas, algo visível nestas duas “palavras do ano”.

 

Fábricas de egocentrismo

Bauman explicou como nos tornamos simultaneamente consumidores e produtos. Nas redes sociais, oferecemos versões editadas de nós mesmos para serem curtidas, comentadas e consumidas. Quando o engajamento cai, nos sentimos descartados, e quando alguém discorda de nós, bloqueamos a pessoa. Eco antecipou isso, pois, quando todos falam qualquer coisa, o conteúdo vira espetáculo, não substância.

O filósofo sul-coreano Byung-Chul Han completa esse quadro ao mostrar como a exigência de performance permanente nas redes nos esgota. Elas não só registram o que fazemos, como nos cobram produtividade emocional constante, opinião sobre tudo, presença em todos os debates e resposta imediata a qualquer provocação. Disso vem um cansaço difuso, que combina burnout, culpa e a sensação de que nunca estamos à altura do padrão de felicidade exigido nas telas, criando uma sociedade deprimida e ansiosa, que busca no ódio digital uma válvula de escape.

Quando dicionários escolhem termos que denotam raiva e ilusão como símbolos do ano, fica claro que esse novo regime digital é patológico. Assim, Eco estava certo ao temer a diluição da autoridade intelectual, pois a raiva brilha mais do que a sensatez.

Talvez a decisão da Austrália seja um exagero sob a ótica da liberdade individual, mas pode ser o alerta que o resto do mundo se recusa a ouvir. Bauman dizia que o medo se tornara ubíquo e difuso em nossos tempos. Portanto, nosso desafio é resgatar o compromisso com o outro, que seja real, ainda que imperfeito e difícil.

A saída para esse labirinto não reside apenas nas canetas dos legisladores, embora a regulação seja urgente e necessária para conter a ganância irresponsável das big techs. Precisamos decidir se estamos dispostos a reconstruir nossas relações para além das telas ou se aceitaremos que a indústria da atenção decida quem amamos, quem odiamos e até o que pensamos sobre nós mesmos.

A resposta não virá de Camberra, Bruxelas, Washington ou Brasília. Nós temos que escolher desligar o celular e olhar nos olhos de quem está ao lado. Precisamos resistir à tentação de transformar discordância em confronto e priorizar a substância sobre a performance. As redes sociais não nos salvarão da armadilha que elas criaram.

 

Inteligência artificial permite a criação de ataques cibernéticos muito mais eficientes - Foto: Freepik/Creative Commons

Em 2026, a IA transformará o cibercrime em uma operação contínua e autônoma

By | Tecnologia | No Comments

Enquanto o ChatGPT comemora seu terceiro aniversário, que aconteceu neste domingo (30), o mercado avalia como a inteligência artificial generativa revolucionou a segurança digital, no que há de bom e de ruim. Neste ano, esta tecnologia consolidou-se como o principal recurso dos criminosos para enganar suas vítimas, e a situação deve se agravar em 2026, segundo a empresa de cibersegurança Tenable.

O Brasil tornou-se um “laboratório” do cibercrime, com 315 bilhões de tentativas de ataques no primeiro semestre, que representam 84% do total da América Latina. Sofremos com ataques internacionais sofisticados e com golpes hiperlocalizados, moldados à linguagem e aos hábitos culturais do país. Essa combinação individualiza os riscos, que abandonam o caráter eventual e passam a ser estruturais e cotidianos.

A IA já permite que criminosos superem barreiras técnicas e linguísticas com facilidade. Ela automatiza a criação de iscas, clonando vozes ou estilos de escrita com fidelidade assustadora, o que torna a distinção entre o real e o falso quase impossível. Se em 2025 houve uma automação do golpe digital, para o ano que vem, os agentes de IA devem tornar esse processo ainda mais perigoso, executando ataques com autonomia, ajustando-se às reações das vítimas.

No lado da segurança, a mesma IA tenta equilibrar o jogo, analisando volumes massivos de dados para identificar comportamentos suspeitos antes que o dano ocorra de fato. Contudo, essa capacidade de defesa permanece, em muitos casos, como uma promessa vendida por fornecedores de software, enquanto a adaptação do ataque parece estar sempre um passo à frente da reação das empresas.

Indivíduos e empresas precisam entender que a tecnologia é fundamental, mas não resolverá um problema que é, cada vez mais, humano e político.


Veja esse artigo em vídeo:


Esse desequilíbrio se deve à também falta de informação das vítimas. “Quando o cidadão não entende o que é um vazamento, não acompanha se seus dados foram expostos e não sabe identificar sinais de golpe, o criminoso joga em campo aberto”, alerta Pedro Eurico Rego, engenheiro de sistemas da Tenable Brasil. Assim, eles têm acesso a dados pessoais por descuido cotidiano ou falhas estruturais de governos e empresas.

O cidadão não tem recursos para identificar golpes que usam até vozes clonadas, e isso une a vulnerabilidade individual ao risco sistêmico. “O caminho será adotar alguns freios simples e bem antigos, como combinar códigos em família para confirmar situações de emergência”, sugere Rego. “Nunca se deve tomar decisões financeiras sob pressão, desconfiando de pedidos urgentes por transferência e, sempre que possível, desligando e retornando a ligação por um número conhecido”, acrescenta.

Do lado das empresas, as grandes corporações investem milhões em cibersegurança, mas as pequenas continuam presas ao improviso. Esse desnível enfraquece todo o ecossistema, porque o atacante só precisa encontrar a porta de entrada mais frágil para atingir as organizações mais robustas.

A situação se agrava com infraestruturas críticas do país dependendo de poucos provedores globais. Quando falham, os danos são imensos, como nos problemas em servidores da Amazon e da Microsoft, em outubro, e da Cloudflare, em novembro. Esse quadro revela que a questão não é só técnica, mas também de soberania. Por isso, a Tenable sugere que, em 2026, a resiliência seja objetivo central de negócio.

Mas empresas continuam tropeçando no básico. Falham em inventários, permissões e identidades, além de manterem dados sensíveis em ambientes sem controle. Nesse cenário, executivos de tecnologia e de segurança enfrentam mais pressão, pois incidentes deixam de ser eventos técnicos e passam a ser narrativas públicas. Cada falha vira manchete e exige articulação imediata entre segurança, comunicação corporativa e gestão de crise.

 

Agentes do cibercrime

Os agentes de IA, que se sofisticaram ao longo de 2025, também ofereceram aos criminosos digitais autonomia para que esses sistemas executem ataques de ponta a ponta, em uma verdadeira “fábrica de golpes”. “O golpe deixa de ser uma ação isolada e vira uma campanha contínua, com a capacidade de aprender com o comportamento das vítimas e até mudar de estratégia”, explica Rego. “É como uma operação empresarial, só que voltada para o crime”.

Da mesma forma, governos tentam se proteger, mas a explosão de dados sensíveis nas mãos de criminosos alimenta a IA também para desinformação política, distorcendo realidades em eleições tensas, como as que têm acontecido no Brasil. Como tenho pesquisado em meu doutorado, essa distorção da realidade pode afetar o desenvolvimento de indivíduos. Aplicado à segurança, isso gera um caos social potencializado pela manipulação.

Temos diante de nós dois futuros simultâneos que disputam a hegemonia dos próximos anos. Um deles é o prometido pela indústria, com organizações que combinam governança e automação para agir de forma proativa. Do outro lado, há o das “fábricas de golpes”, que operam com eficiência asséptica e multiplicam ataques como se fossem campanhas de marketing.

Vivemos uma evidente e grave falha sistêmica em nossa sociedade. Se a tecnologia avançou tanto, chega a ser inaceitável que a proteção real das pessoas continue dependendo, de maneira determinante, do bom senso individual e de táticas analógicas de verificação diante de ataques tão sofisticados.

É cada vez mais difícil resistir à sedução algorítmica, seja para comprar todo tipo de quinquilharia, seja ao cair em golpes. Esse é um embate profundamente desigual entre máquinas e pessoas.

Precisamos urgentemente parar de tratar a cibersegurança como um produto de prateleira e encará-la como um pacto civilizatório de educação e de proteção mútua. Enquanto delegarmos apenas à tecnologia a solução de problemas que são essencialmente humanos e éticos, continuaremos sendo as vítimas perfeitas de um algoritmo que aprendeu a nos explorar melhor do que nós sabemos nos defender.

 

Ursula von der Leyen, presidente da Comissão Europeia, que quer flexibilizar leis digitais - Foto: Parlamento Europeu/Creative Commons

Europa cede às pressões das big techs e flexibiliza suas leis digitais

By | Tecnologia | No Comments

No dia 18, a Comissão Europeia publicou uma proposta para flexibilizar suas diferentes legislações para plataformas digitais. Batizada de “Digital Omnibus”, ela retira diversas limitações para empresas que operam no continente para desenvolver plataformas de inteligência artificial. É uma tentativa de tornar seus produtos competitivos frente aos concorrentes americanos e chineses, criados praticamente sem restrição e com forte apoio governamental.

A decisão vai ao encontro de demandas das empresas do bloco e tenta garantir que a Europa não fique de fora de um mercado digital trilionário, que chacoalha a balança geopolítica, mas também cede a pressões das big techs do outro lado do Atlântico. Apesar de seus benefícios inegáveis, o anúncio desperta temores entre especialistas e organismos de proteção de direitos individuais.

O principal risco é a enorme erosão da privacidade como direito fundamental. Ao facilitar o uso de dados pessoais para o treinamento de modelos de IA, a Europa sinaliza que a intimidade do cidadão pode ser convertida em combustível para máquinas, sob a justificativa do progresso econômico, criando uma zona cinzenta onde o consentimento se torna uma formalidade obsoleta.

Globalmente, isso pode criar um “Efeito Bruxelas reverso”. Se a União Europeia, até então o farol mundial da regulamentação ética, capitular, a corrida global para o fundo do poço regulatório aumentará. Nações emergentes, como o Brasil, podem se sentir pressionadas a desmantelar suas próprias proteções para atrair investimentos, subjugando direitos humanos aos interesses corporativos.

O questionamento inevitável é se a privacidade se tornou um luxo incompatível com a inovação tecnológica e se estamos aceitando passivamente que a dignidade humana seja o preço a pagar pela conveniência digital.


Veja esse artigo em vídeo:


O momento dessa proposta não é coincidência. Nos últimos meses, o governo dos EUA intensificou críticas às regulações europeias, acusando-as de mirar injustamente empresas americanas. Paralelamente, relatórios locais alertam que a Europa perdeu terreno na corrida tecnológica e precisa urgentemente simplificar suas regras. A proposta agora segue para análise do Parlamento Europeu e dos países-membros, em um processo que pode levar meses e sofrer alterações significativas.

O destaque é a mudança no conceito de dados pessoais no GDPR, a lei de proteção de dados europeia. As informações só seriam consideradas “pessoais” para uma entidade se ela tiver meios razoáveis de identificar o indivíduo. Na prática, isso permite que empresas usem dados pseudonimizados (dados pessoais com identificadores substituídos, mas reversíveis) sem as restrições atuais, ampliando dramaticamente o volume de informações disponíveis para treinar modelos de IA.

A proposta também cria exceções para o processamento de dados sensíveis, como informações sobre saúde, orientação sexual e convicções políticas, para o treinamento de sistemas de IA. Isso representa uma flexibilização substancial das proteções, pois, uma vez dentro da “caixa preta” do algoritmo, será impossível remover ou auditar esses dados, representando um retrocesso de décadas na luta pela privacidade. Além disso, a implantação das regras mais estritas sobre “IA de alto risco”, que deveria acontecer em agosto de 2026, é jogada para dezembro de 2027.

Custos de compliance devem cair bilhões de euros, startups terão menos barreiras e gigantes do setor, que reclamam das travas legais, ganharão fôlego para competir. Mas a dúvida é se isso basta para tirar a Europa do atraso. Afinal, nenhuma mudança legal compensará dez anos de hesitação enquanto EUA e China expandiram seus modelos e capturaram mercados globais. E mesmo com as flexibilizações, a Europa ainda manteria proteções substancialmente mais robustas que seus concorrentes.

Por outro lado, defensores da privacidade alertam que dados pessoais serão entregues a gigantes como OpenAI, Meta, Google e Amazon, permitindo que sistemas de IA conheçam detalhes íntimos e, consequentemente, manipulem pessoas. A mudança no conceito de dados pessoais pode criar brechas legais para que empresas argumentem que não possuem “meios razoáveis de identificação”, mesmo quando essa capacidade tecnicamente exista.

 

Influência global

Muita gente aplaude a proposta, motivada por interesse direto no afrouxamento das regras ou seduzida pela retórica fácil de que regulamentação é inimiga da inovação. Porém, ela não é um obstáculo, mas uma salvaguarda civilizatória que define limites para proteger cidadãos diante de poderes econômicos cada vez mais concentrados. O desafio é calibrá-la, e não a desmontar.

Países como o Brasil devem observar essa guinada europeia e ajustar suas legislações para fomentar IAs nacionais robustas, utilizando seus próprios dados e cultura, mas mantendo proteções que impeçam o abuso corporativo. A regulamentação deve ser equilibrada, resistindo a um excesso paralisante e a uma frouxidão irresponsável.

As big techs conseguiram acesso facilitado a dados, menos fiscalização e mais tempo para adequação às regras, com o apoio explícito dos EUA. Agora, a sociedade civil tem um papel crucial de vigilância. É preciso dissecar essa proposta para garantir que a inovação não esconda uma vigilância irrestrita. Cada cidadão deve questionar se a promessa de uma IA eficiente vale a entrega de seus dados mais íntimos.

Se a Europa abandonar mesmo sua vocação de guardiã dos direitos digitais, o vácuo será preenchido por interesses que não convergem com os da humanidade. O continente construiu sua reputação como baluarte da proteção desses direitos justamente por resistir a pressões econômicas e geopolíticas em favor de princípios.

Abandonar essa posição pode render ganhos econômicos, mas ao custo da confiança de que existe, ao menos em algum lugar do mundo, um compromisso inabalável com a dignidade humana frente a poderes corporativo e políticos desmedidos. O desafio é descobrir se ainda é possível competir economicamente sem sacrificar valores fundamentais, ou se essa sempre foi uma ilusão confortável que não sobrevive ao confronto com a realidade do capitalismo digital selvagem e desenfreado.

 

Aravind Srinivas, CEO da Perplexity, que lançou em julho o Comet, seu navegador com IA - Foto: Kimberly White/Creative Commons

“Terceira guerra dos navegadores” traz benefícios e riscos para todos nós

By | Tecnologia | No Comments

A inteligência artificial está transformando os navegadores, o tipo de software que todos nós mais usamos. Além de exibir as páginas que queremos, essa nova geração incorpora assistentes de IA que oferecem interações contextuais, automação de tarefas e respostas inteligentes na mesma tela. Mas apesar desses benefícios, isso dispara alertas sobre invasão de privacidade e até interferência em nosso livre arbítrio.

Nesta terceira edição da “guerra dos navegadores”, programas como o Comet, da Perplexity, e o Atlas, da OpenAI, desafiam o domínio do Chrome, que reina com 65% desse mercado. O Google entrou nessa briga para não perder sua liderança, incorporando o Gemini, sua plataforma de IA, ao Chrome. Mas o gigante enfrenta o desafio de evitar que isso canibalize seu buscador, sua principal fonte de receita.

As empresas de IA querem ter seus navegadores, pois eles se tornaram o novo ponto de controle da vida digital. Passamos neles a maior parte do tempo online, portanto dominá-los significa ter acesso direto ao comportamento, às preferências e ao contexto de cada usuário. Integrar tudo o que fazemos a um agente de IA é o sonho de qualquer um que queira não apenas fornecer respostas, mas influenciar decisões.

O Google já promoveu o Chrome a um “aplicativo que faz tudo” nos seus Chromebooks, notebooks mais baratos em que o navegador é o local onde tudo funciona. Agora, com assistentes de IA interagindo com nossos e-mails, agenda, documentos, compras, relações sociais e tudo mais que fazemos online, isso vai além, tornando-se um intermediário invisível entre a vontade humana e a execução digital.

A produtividade norteia essa revolução, mas quando o navegador decide o que priorizar e até o que omitir, ele ameaça nossa autonomia. Trata-se de um deslocamento silencioso, mas profundo, na relação entre humanos e máquinas.


Veja esse artigo em vídeo:


Para entender a magnitude desses movimentos, vale revisitar as “guerras” anteriores. Na primeira, entre 1995 e 2001, a Microsoft esmagou o pioneiro Netscape Navigator, ao oferecer o Internet Explorer integrado gratuitamente ao Windows 95. O Netscape desabou de quase 90% do mercado para menos de 1% em uma década. Com isso, a Microsoft garantiu domínio absoluto e consolidou seu império digital.

A segunda, de 2004 a 2017, trouxe novos competidores, como Firefox, Opera e Safari, mas foi o Google Chrome, lançado em 2008, que mudou o jogo, ao oferecer leveza e integração ao buscador. Assim, rapidamente conquistou o mercado e hoje o domina com 65% de participação. Para o Google, essa vitória solidificou sua posição como a principal porta de entrada para a Internet, controlando o comportamento de busca de bilhões de pessoas e multiplicando sua receita publicitária.

Mudar hábitos é difícil, especialmente de algo tão enraizado quanto a forma de explorar a Web. O navegador é a ferramenta mais familiar que usamos online, e confiamos nele por ser estável e previsível. Mas conveniências bem desenhadas podem transformar comportamentos coletivos. Se um navegador com IA começa a lhes poupar tempo, as pessoas o adotarão rapidamente.

As vantagens para o usuário parecem claras à primeira vista. Os navegadores inteligentes podem se adaptar ao estilo de cada pessoa. A segurança também promete melhorar, com a IA identificando sites falsos, links suspeitos e comportamentos maliciosos com mais precisão, reduzindo riscos. Além disso, permite que os humanos e a IA acessem a Web simultaneamente, com o agente trabalhando em uma tarefa enquanto o usuário se concentra em outra.

Ironicamente, isso diminui a visibilidade da Internet. Os sites deixam de ser acessados e se reduzem a fontes de dados para treinar modelos de linguagem. Os usuários já começam a visitá-los menos, pois se contentam com as sínteses feitas pela IA, que escolhe, a seu critério exclusivo, o que mostrar e o que esconder. Com isso, produtores de conteúdo, veículos de imprensa e até o e-commerce podem perder dramaticamente relevância, audiência e receita, ampliando de forma exponencial o que se vê há anos com as redes sociais intermediando o consumo de informação do mundo.

Assim, a responsabilidade pelo conteúdo também muda de mãos. Antes, se o usuário não gostasse de algo, bastava fechar a aba. Porém, quando um navegador decide o que o usuário verá, torna-se coautor. Mas não se sabe quem responderá se a IA sugerir algo incorreto ou enviesado. A neutralidade informacional, princípio fundador da Web, se dilui em algoritmos proprietários e opacos.

 

Comandos obscuros

Um navegador com IA tem acesso a muito mais dados do que um “convencional”. Com o poder de inferir intenções, abre-se um campo fértil para manipulações sutis, mas poderosíssimas.

Há ainda o problema dos “prompts invisíveis”, comandos escondidos no código das páginas para manipular a IA. Um texto oculto pode instruir o navegador a elogiar um produto ou omitir críticas, por exemplo. Acrescente a coleta ampliada de dados e até como reagimos a determinados estímulos, e chegamos a um sistema que pode enviesar respostas e percepções sem que o usuário jamais perceba a manipulação.

O que era uma ferramenta de acesso à informação agora se transforma em uma estrutura de vigilância distribuída. A sociedade se vê novamente diante do dilema de como aproveitar esses recursos muito bem-vindos sem abrir mão da privacidade e da autonomia que definem a liberdade digital.

A resposta exige olhar para nossos erros recentes. Falhamos miseravelmente com as redes sociais, que nos manipulam profundamente com algoritmos opacos, alimentam vieses de confirmação e racharam a sociedade ao meio, polarizando o debate público de forma sem precedentes. Os navegadores com IA podem ampliar isso com uma camada ainda mais profunda de opacidade e influência comportamental.

Parece ser um caminho inevitável, pois a evolução tecnológica não retrocede. Mas não podemos seguir por ele passiva e inconscientemente. Desta vez, sabemos o que está em jogo e temos a chance de estabelecer regras antes que o estrago seja feito.

A sociedade precisa se organizar para aproveitar esses recursos de maneira segura, ética e produtiva. Isso significa exigir transparência sobre quais dados são coletados e como são usados. Marcos regulatórios robustos devem garantir a neutralidade, punir big techs por informações incorretas e desenvolver tecnologias de auditoria que nos permitam verificar como a IA está tomando decisões em nosso nome.

Caso contrário, os navegadores do futuro não serão janelas para o mundo, mas espelhos que refletem apenas o que os donos dos algoritmos desejam que vejamos.

 

Jensen Huang, CEO da Nvidia, apresenta novos GPUs durante a conferência GTC, em março - Foto: reprodução

Os US$ 5 trilhões da Nvidia esgarçam os limites razoáveis da IA

By | Tecnologia | No Comments

No dia 29 de outubro, a Nvidia atingiu estratosféricos US$ 5 trilhões de valor de mercado. Primeira empresa a chegar a essa marca, ela é o indicador mais reluzente da importância que a inteligência artificial passou a ocupar em nossas vidas. Mas o mercado já teme que a hipervalorização das empresas ligadas à IA seja uma bolha especulativa prestes a estourar. O questionamento mais importante, entretanto, é quanto a IA seria uma tecnologia viável sem essa injeção insana de dinheiro.

A euforia é justificada pelo seu potencial transformador. A consultoria Goldman Sachs calcula que ela deve elevar o PIB global em 7% e a produtividade em 1,5% em uma década. Nesse ano, já representa cerca de 40% do crescimento do PIB americano e é responsável por 80% dos ganhos nas ações. Sem a IA, o crescimento econômico da terra do Tio Sam teria sido cerca de um terço do que o atual.

Os exageros residem na pressa do mercado em querer que a tecnologia “entregue o futuro logo”, ignorando que poucas dessas empresas são lucrativas, e que a IA ainda impacta pouco ou nada nos resultados de 95% dos que nela investem, segundo o MIT. A própria OpenAI, maior estrela do setor e criadora do ChatGPT, opera no vermelho. Além disso, seu faturamento estimado pelo mercado em US$ 13 bilhões é insignificante perto dos US$ 300 bilhões que ela se comprometeu a gastar com infraestrutura da Oracle e US$ 250 bilhões com a Microsoft em cinco anos.

As empresas investem na IA porque têm medo de ficar para trás, não porque encontraram um modelo de negócio sustentável. Tudo isso alimenta a percepção de uma bolha especulativa. O próprio Sam Altman, CEO da OpenAI, disse em agosto que o setor de IA vive em uma e que “alguém vai perder uma quantidade fenomenal de dinheiro”.

Claro que não dá mais para deixar a IA de lado: seria como acabar com a Internet. Mas manter esses investimentos sem retornos concretos pode ser financeiramente insustentável e causar um “banho de sangue” em poucos anos. Essa corrida desenfreada para “ser dono” da IA já passou dos limites.


Veja esse artigo em vídeo:


Fundada em 1993, a Nvidia produzia processadores gráficos para games. Mas tudo mudou quando eles se tornaram vitais para os modelos de IA generativa. Desde 2022, impulsionada pela demanda explosiva de empresas como Microsoft, Google e Meta, sua valorização saltou de US$ 400 bilhões para os atuais US$ 5 trilhões. Os pedidos já contratados até o fim de 2026 já superam US$ 500 bilhões.

Ainda assim, é preciso perguntar se alguma empresa realmente pode valer US$ 5 trilhões. O valor supera o PIB de países como Japão, Reino Unido, Índia e Brasil. Essa desproporção afeta não só os investidores, mas governos, empregos e cadeias produtivas inteiras.

Bolhas nascem quando a sociedade passa a acreditar que algo crescerá para sempre. Os fundamentos somem da conversa e são substituídos pela esperança de que o próximo anúncio renderá bilhões. Quando a realidade decide cobrar a conta, a confiança evapora e leva consigo empresas, empregos e uma montanha de dinheiro.

A história está cheia de exemplos, como a mania das tulipas do século XVII, a expansão ferroviária do século XIX, as “empresas ponto-com” no ano 2000 e as hipotecas subprime em 2008. Todas seguiram a coreografia de dinheiro abundante, inovação promissora e discursos visionários desconectados de valor concreto.

A diferença agora é que a IA já demonstra impactos reais em grandes empresas, ainda que não em todas. Alguns especialistas afirmam que estamos, na verdade, em um processo acelerado de transformação industrial que precisa de investimentos pesados. Dessa forma, mesmo que muita gente acabe perdendo fortunas em algum momento, a sociedade se beneficiaria dos resultados desses investidores.

 

Guerra de interesses

Os interesses econômicos e políticos envolvidos na IA são incomensuráveis. Jensen Huang, CEO da Nvidia, precisa manter a confiança dos investidores para que continue crescendo. Altman pode admitir a bolha porque a OpenAI sobreviverá ao estouro dela, quando comprará os destroços dos concorrentes falidos. Analistas independentes, por sua vez, não têm nada a perder, e assim podem dizer as verdades inconvenientes.

O desenvolvimento do Vale do Silício sempre dependeu de apostas arriscadas com capital abundante. Investidores despejam dinheiro em startups obscuras, esperando que uma se torne o próximo Google. Isso leva à inovação acelerada e transformação de setores inteiros, mas também concentra o poder em poucas mãos, cria desperdício de recursos e ciclos de euforia seguidos de destruição. A IA é a “bola da vez”, tratada como uma aposta gigantesca em que poucos vencerão e muitos perderão tudo.

Tornar a inteligência artificial o motor do crescimento econômico americano é simultaneamente um benefício e uma armadilha. O primeiro está na possibilidade real de aumentar a produtividade e enfrentar desafios como escassez de mão de obra e envelhecimento populacional. A segunda está na dependência excessiva de uma tecnologia ainda imatura.

Os EUA estão apostando seu futuro em chips e algoritmos. Se a IA decepcionar, o fardo da dívida pública americana se tornará insustentável, e países inteiros serão puxados para o buraco junto com as big techs.

Por isso, é urgente colocar as coisas na balança. Há fundamentos e lucros na IA, mas também há ansiedade exagerada, euforia e risco real. Precisamos saber até que ponto essa valorização extraordinária cria riqueza sustentável, e quando ela passa a sugar recursos que deveriam ser distribuídos na sociedade.

No fim das contas, o que está em jogo não é só o destino das big techs, e sim políticas públicas, soberania econômica e desigualdades digitais e sociais. A IA já é parte indelével da nossa vida. Precisamos desenvolver senso crítico sobre ela, sem tratá-la como salvação mágica ou uma fraude inevitável.

Cada um de nós precisa entender o que está por trás das promessas reluzentes. É preciso fiscalizar governos, pressionar empresas por transparência, e defender regulações que mantenham a tecnologia a serviço das pessoas, e não do ciclo interminável de valorização. Só assim a IA será, de fato, um avanço que enriqueça a humanidade, e não apenas os acionistas de meia dúzia de empresas trilionárias.

 

Roberto Brito de Mendonça, líder da comunidade Tumbira (AM), trocou o desmatamento ilegal pelo turismo ecológico – Foto: reprodução

Onipresente nas cidades, Internet ainda amplia a fronteira civilizatória na Amazônia

By | Tecnologia | No Comments

Para você que está lendo isso, a Internet funciona de maneira líquida e certa, como uma força da natureza. Mas para quem vive na floresta amazônica, onde a natureza verdadeiramente se impõe, sua chegada amplia a fronteira civilizatória. Não se trata de conforto, e sim de uma “virada de época”, reconfigurando possibilidades de vida.

A Amazônia é um desses lugares onde a transformação digital é forçada aos seus limites operacionais, sociais e éticos. Não há comitês de inovação em salas com ar-condicionado simulando a floresta. A tecnologia se torna fator de sobrevivência em um teste de legitimidade. Afinal, se algo funciona lá, funciona em qualquer lugar; se fracassa, expõe que o discurso digital talvez fosse frágil, apenas protegido por infraestrutura abundante. E se a tecnologia não preserva a vida com sentido e não produz valor para quem mora na floresta, ela falha miseravelmente.

Pude comprovar esse impacto na semana passada, quando visitei a comunidade ribeirinha Tumbira e a aldeia da etnia Kambeba Três Unidos, ambas nas margens do rio Negro, a cerca de duas horas de lancha de Manaus (AM). Assim como outras 796 comunidades, elas recebem orientação e investimentos da Fundação Amazônia Sustentável (FAS), totalizando 21 mil famílias assistidas na região. Para isso, há dez anos usa soluções da gigante de software alemã SAP na gestão de seus projetos, com ganhos em transparência, planejamento e impacto socioambiental.

A FAS visa conservar o bioma pela valorização da “floresta em pé” e melhorar a qualidade de vida das populações da Amazônia. Partindo do pressuposto de que pessoas com melhores condições cuidarão mais da natureza, implanta programas de educação, cidadania, saúde, empoderamento, pesquisa e inovação, conservação ambiental, empreendedorismo e geração de renda. Também melhora a infraestrutura das comunidades, inclusive com eletricidade e Internet, apoiada por empresas.

Isso impede que a Amazônia entre em um colapso ecológico, o que agravaria a crise climática global. Portanto, não se trata de ganhos pontuais. Eles fortalecem a posição do Brasil como um país capaz de conservar e gerar prosperidade na região, não apenas por ser “dono da floresta”, mas sim dono de soluções.


Veja esse artigo em vídeo:


A floresta impõe o aprendizado de que programas de transformação digital que chegam prontos, sem aderência cultural, morrem por falta de enraizamento. “Não impomos nada de cima para baixo, ou a comunidade não se engaja”, explica Michelle Costa, superintendente de Gestão e Finanças da FAS.

Ela lembra também que o Terceiro Setor amazônico opera sob grande estresse, com sua reputação sempre atacada, recursos limitados frente a altos custos, eventos climáticos extremos, enormes distâncias e infraestrutura precaríssima. Além disso, enfrentam a violência de traficantes e outros criminosos típicos da região.

Em um ambiente tão hostil, nenhuma organização pública, privada ou social consegue operar sozinha. “Sustentabilidade, você não faz sozinho, faz em parcerias”, afirma Pedro Pereira, diretor de Sustentabilidade da SAP para a América Latina e Caribe. Iniciativas como essas ajudam a reconectar a inovação ao seu fundamento de produzir valor para pessoas reais, em situações reais.

De fato, sustentabilidade que não entrega valor morre e projetos locais de ESG que não resistem ao “teste da Amazônia” cheiram a simples retórica. Em ambientes onde quase tudo falta, não há espaço para enfeite, apenas para o que gera resultados verificáveis.

Ao orientar, investir e conectar essas comunidades, elas ganham visibilidade e melhoram seus produtos. Isso muda sua posição na cadeia de valor, abandonando o papel de dependente e vulnerável e promovendo sua emancipação econômica.

 

Meu avô e meu pai cortavam árvores

“Não sou ambientalista, nem ativista”, esclarece Roberto Brito de Mendonça, líder da comunidade Tumbira. “Nosso trabalho é para dar qualidade de vida para nós mesmos”, acrescenta.

Ele cresceu cortando madeira ilegalmente para seu sustento, pois seu pai e seu avô faziam isso: “eles usavam machado; eu usava motoserra”. Com a FAS, trocou o desmatamento pelo turismo ecológico. Hoje é dono de uma pousada, faz transporte, excursões e oferece alimentação. Pensa agora em criar um espaço para eventos.

“A gente trabalha de forma unida para melhorar a comunidade na saúde, na educação e na sustentabilidade”, conta Neurilene Cruz, dona do restaurante Sumimi, que fica na aldeia Três Unidos. As cinco mulheres que o operam precisaram vencer o machismo, que ditava que “mulher não cozinha para fora”.

Graças ao apoio da FAS, a aldeia também conta hoje com dois atletas: um no tiro com arco e outro na canoagem. Eles sonham em participar de uma olimpíada, mas Cruz lamenta a dificuldade de conseguir patrocínios na região.

Fica claro que parcerias que respeitam os contextos de cada comunidade são desenhadas para que ela queira que funcione, e não para que uma organização externa as destaque em seus relatórios. E quando vozes da floresta ganham visibilidade, não se pode mais falar da Amazônia como se ela fosse mera paisagem.

É por isso que tratar a chegada da Internet na região como um simples serviço é demasiadamente reducionista. Ela cria infraestrutura de cidadania, com informação, educação, saúde e inclusão. Onde o Estado não chega, o mercado não se interessa e a geografia intimida, a conectividade tira populações inteiras da invisibilidade e as integra ao mundo, respeitando suas culturas.

Dessa forma, se o Brasil considera mesmo estratégico ter “a floresta em pé”, deveria considerar igualmente estratégico ter os povos da floresta conectados. Sem isso, a Amazônia se limita à imagem da “imensidão verde”, quando as pessoas que lá vivem podem e devem ser agentes de um futuro melhor para si.

A Amazônia redefine, assim, que parcerias não podem ser apenas transações, vitrines ou mecanismos de reputação. Elas devem ser arranjos de execução compartilhada, onde a escuta vem antes de tecnologia e método. E quando esse tipo de parceria frutifica diante de tantos desafios, o restante do país precisa se questionar por que não daria certo onde tudo sobra se funciona onde tanta coisa falta.