Monthly Archives: dezembro 2025

Neste ano, a IA deixou de ser “divertida” para se tornar uma ferramenta de trabalho cobrada por eficiência – Imagem: Paulo Silvestre

Esse foi o ano em que a IA encontrou o caminho do lucro

By | Tecnologia | No Comments

Se 2023 foi o ano do espanto com a inteligência artificial e 2024 marcou a democratização do acesso a essa tecnologia, 2025 foi aquele em que ela deixou de ser uma “atração de circo”, capaz de criar poemas ou imagens divertidas, para se tornar uma ferramenta de trabalho séria, cobrada por eficiência, escala e resultados financeiros. A “mágica” foi substituída pelo início do retorno sobre os investimentos.

O mercado termina o ano com essa ideia consolidada, conforme me disseram, há alguns dias, executivos de algumas das principais empresas de tecnologia que operam no Brasil, todas diretamente envolvidas na construção da infraestrutura digital que sustenta empresas, governos e serviços críticos no país.

As corporações perceberam que ferramentas genéricas, como o ChatGPT, eram interessantes, mas insuficientes para resolver dores complexas de negócios. Foi necessário organizar dados e adotar sistemas que não apenas “falassem”, mas que “fizessem”. A busca por eficiência operacional em um cenário econômico desafiador empurrou a IA para dentro das engrenagens vitais das companhias, saindo dos laboratórios de inovação para o chão de fábrica e os departamentos financeiros.

No início de 2025, a aposta era de que a IA começaria a entregar resultados, o que, de fato, vem se confirmando. Agentes especializados ganharam espaço, a integração ao dia a dia avançou e o discurso ficou mais sóbrio. O que não aconteceu com a mesma velocidade foi a maturidade dos dados e a simplificação da adoção, ainda travadas por legados e decisões mal resolvidas do passado.

Contudo, ao integrar a inteligência artificial nos processos de decisão, as companhias descobriram que a tecnologia é a parte fácil do processo. O mais difícil acaba recaindo na cultura empresarial e na responsabilidade de delegar escolhas a uma máquina. Isso exige de nós ética, para não perdemos o controle dos rumos de nossas vidas.


Veja esse artigo em vídeo:


A necessidade de mudança de postura nas pessoas está clara para quem comanda essas transformações. Para Rui Botelho, presidente da SAP Brasil, a IA saiu do “piloto” para a escala, com foco em produtividade, qualidade de decisão e retorno mensurável. “As empresas passaram a priorizar casos de uso integrados ao dia a dia, em finanças, compras, RH, supply chain, e não apenas projetos experimentais isolados”, destaca.

Marco Stefanini, CEO Global e fundador da Stefanini, corrobora a ideia. Para ele, o mercado deixou a fase de encantamento com os modelos generativos e entrou em outra, mais madura e pragmática. “Quando se parte de um problema concreto, com dados estruturados e metas claras, o valor aparece”, afirma. Por outro lado, “quando se parte da tecnologia pela tecnologia, os projetos emperram”.

Um dos principais motores dessa maturação da IA foram os agentes, sistemas capazes de planejar e executar tarefas específicas de maneira autônoma, monitorando o ambiente e tomando decisões para atingir objetivos com pouca ou nenhuma intervenção humana. No começo do ano, eles eram a grande aposta do mercado, que acabou se concretizando ao longo desses 12 meses.

Fabricio Lira, diretor de IA e Dados da IBM Brasil, explica que esses sistemas permitem que as empresas automatizem processos complexos sem intervenção humana constante. Não se trata de um chatbot que responde dúvidas, mas de um robô que planeja e executa ações em cadeias inteiras. “Isso impulsiona a produtividade em escala global, reduzindo custos operacionais em diversos setores, enquanto aborda desafios éticos por meio de frameworks de IA responsável”, explica.

Mas nada disso se sustenta sem uma base sólida. Sandra Vaz, presidente da Red Hat Brasil, lembra que o hype da IA foi importante para que empresas reforçassem o uso de tecnologias estruturais, como nuvem híbrida, automação e modelos de negócios abertos. “As lideranças precisam abandonar modelos rígidos e adotar uma cultura baseada em colaboração, experimentação e decisões orientadas por dados”, sugere.

A IA deixou de ser uma “solução procurando um problema” para se tornar a resposta estratégica para dores reais. Mas ela, por si só, não salva uma cultura organizacional tóxica ou obsoleta.

 

A importância dos dados

Ao longo do ano, falou-se muitíssimo da importância de dados de qualidade alimentando a IA. De fato, ela só funcionou bem onde houve informações organizadas e confiáveis. Sem elas, o discurso continuou maior do que o impacto. A IA começou a entregar, mas apenas para quem fez a lição de casa de organização e processos.

Terminamos 2025 com uma IA menos “mágica” e mais “operária”. Isso é bem-vindo, pois tira a discussão do campo da ficção científica e a coloca na mesa de reunião da diretoria, onde orçamentos e responsabilidades são definidos. A tecnologia começa a se tornar invisível e onipresente, como a eletricidade, um sinal de amadurecimento.

No entanto, precisamos ficar atentos a armadilhas ligadas a essa eficiência. Se os agentes autônomos estão tomando decisões, eles precisam ser auditados. O avanço técnico parece estar chegando, agora nossa ética precisa alcançá-lo.

Ao chegar ao fim do ano dessa forma, a IA deixa a lição incômoda e necessária de que não há tecnologia salvadora, nem atalho para maturidade digital. O que existe é trabalho duro, escolhas às vezes difíceis e responsabilidade compartilhada.

Para empresas, gestores e a sociedade como um todo, o ensinamento é que deve haver menos deslumbramento e mais critério. A IA não resolve tudo, mas diferencia quem fez os movimentos necessários de quem apenas acreditou no discurso.

Talvez a lição mais importante de 2025 seja que a IA só é transformadora quando conecta tecnologia, governança e humanidade, e precisa ser boa para todos. Enquanto executivos comemoram ganhos de produtividade e novos modelos de negócio, trabalhadores encaram uma requalificação acelerada e muitas vezes difícil.

A sociedade observa, ainda sem clareza, quem se responsabilizará quando decisões automatizadas falharem. De agora em diante, dependeremos menos da tecnologia em si e mais de como escolheremos usá-la. E isso, felizmente, ainda está em nossas mãos.

 

O filósofo italiano Luciano Floridi, que afirma que a IA pode ser usada para o que chama de “hipersuasão” – Foto: Creative Commons

Em um ano eleitoral, IA deve se tornar uma máquina de desinformação

By | Jornalismo, Tecnologia | No Comments

Estamos com 2026 batendo às nossas portas, ano de Copa do Mundo e de eleições, inclusive presidenciais. Como acontece de maneira crescente desde 2018, essa campanha será fortemente influenciada pela desinformação nas redes sociais, agora potencializada pela inteligência artificial.

Infelizmente, a mesma IA que nos oferece recursos incríveis também se presta àqueles que se beneficiam de uma população ignorante e contaminada por fake news. Nossa capacidade de nos mantermos bem-informados sofre dupla ameaça: a de conteúdos propositalmente falsos, porém mais críveis, e a de fontes pouco confiáveis capturando crescentemente a nossa atenção.

Nesse caldo, surgem pretensos “veículos de comunicação” totalmente criados por inteligência artificial, dispensando a ação de jornalistas ou de qualquer ser humano. Eles propõem que, ao delegar para a máquina a escolha dos assuntos e a produção dos conteúdos, seriam livres dos vieses que toda pessoa carrega e, por isso, mais confiáveis e relevantes que os veículos jornalísticos profissionais.

Para uma mente desavisada, isso pode parecer uma grande ideia. Infelizmente, ela, por si só, é falsa de diferentes formas. Por isso, penso que os criadores dessas plataformas são, no melhor dos casos, inocentes ou ignorantes e, no pior, intelectualmente muito desonestos. Qualquer que seja a situação, suas propostas enfraquecem o jornalismo e tornam a população ainda mais suscetível à manipulação de grupos de poder, algo que se torna mais perigoso em ano de eleições.

Vale observar que, quanto mais poderosa se torna a inteligência artificial, mais importante fica a nossa humanidade, para preservarmos o nosso protagonismo na sociedade. Ao abrirmos mão de nosso senso crítico, corremos o risco de sermos dominados pelas máquinas e –o que é pior– por pessoas que aprenderam a usá-las para impor seus interesses. E infelizmente é o que está acontecendo.


Veja esse artigo em vídeo:


Já em 2024, o filósofo Luciano Floridi, diretor do Centro de Ética Digital da Universidade de Yale (EUA), publicou um artigo em que aprofundou o termo “hipersuasão” para descrever esse problema. O italiano, uma das maiores autoridades globais na filosofia da informação, considera a IA a máquina perfeita de convencimento, pela sua capacidade de nos conhecer profundamente e de produzir conteúdos muito convincentes a partir das características e valores de cada indivíduo.

“A avaliação do poder de hipersuasão da IA é negativa e até potencialmente aterrorizante, por causa de todos os atores malignos que poderiam usá-la para os piores tipos de atos horríveis”, escreveu Floridi. “Milhões de pessoas poderiam estar sujeitas a tal hipersuasão e incapazes de resistir a ela criticamente”, acrescentou.

Para ele, “em uma sociedade decente, as formas aceitáveis de hipersuasão deveriam ser regulamentadas, enquanto as inaceitáveis deveriam ser banidas”. Floridi acredita que pessoas bem-educadas e engajadas minimizariam esse risco, mas reconhece que isso é utópico. “Um público mais instruído, que exprima coletivamente preocupações e participe em discussões sobre a utilização ética da IA como tecnologia persuasiva, pode influenciar os debates políticos e os processos democráticos.”

Um exemplo de veículo de comunicação totalmente feito por IA é o NewsGPT, cujo slogan é “a verdade não humana”. Sua descrição diz que “por ser uma plataforma orientada por IA, ele se baseia em dados e algoritmos –não em humanos– para gerar artigos jornalísticos, eliminando opiniões pessoais e agendas”. Afirma ainda que “tem a capacidade de processar enormes volumes de informação de diversas fontes, resultando em cobertura de notícias 24 horas por dia, em todo o mundo”.

Não é o que acontece, a começar porque, em muitos dias, o serviço não publica notícia alguma. Suas produções rasas têm apenas três parágrafos, com textos e imagens com erros grosseiros. Além disso, não há nada relevante nos assuntos. Neste momento, entre seus destaques, estão textos sobre um casal que morreu em um incêndio em uma sauna em Tóquio, um rapper americano que foi preso na Romênia por fumar maconha no palco e o jogo de abertura da Copa Africana de Nações.

A plataforma incentiva seu público a denunciar o que considere notícias falsas. Mas as pessoas raramente têm preparo para identificar isso. É comum disseminarem o que gostam, mesmo que seja mentira, e denunciarem o que lhes desagrada, ainda que verdadeiro. Isso destrói a premissa de imparcialidade e precisão da plataforma.

 

Antijornalismo

O desserviço prestado pelo NewsGPT continua quando ele propõe criar “notícias personalizadas, adaptadas às preferências de cada espectador (…) entregando um noticiário personalizado, feito especialmente para você”.

Novamente, isso parece uma boa ideia. Mas o bom jornalismo nunca pode manter o público em sua zona de conforto. As pessoas precisam ser informadas sobre tudo que importa, mesmo que elas não gostem. Infelizmente, além de coisas divertidas, o mundo está repleto de casos tristes ou incômodos, que precisam ser conhecidos.

As “bolhas de filtro”, promovidas pelo NewsGPT como um diferencial, são, na verdade, a raiz da polarização patológica em que as redes sociais lançaram o mundo ao longo dos últimos 15 anos. Com seus algoritmos exibindo apenas o que cada um gosta, as pessoas abandonaram o jornalismo sério, que insiste em lhes mostrar o mundo como ele é, para abraçarem alegremente a ilusão de mentiras confortáveis.

Não podemos esquecer que, a despeito das falácias sobre as quais esses falsos veículos de comunicação se constroem, a própria IA possui vieses em sua concepção. A tecnologia os herda dos dados de seu treinamento, dos algoritmos e de escolhas humanas de design, mesmo que busque mitigá-los com verificação cruzada.

Não há garantias de que o NewsGPT não esconda uma agenda política, pois ele não divulga detalhes sobre seus acionistas, algoritmos ou auditorias externas de neutralidade. Mesmo assim, propostas como essa enfraquecem o jornalismo tradicional, pois as pessoas se acostumam a consumir um pretenso noticiário focado em seus gostos. Ao abandonarem os veículos sérios, eles ficam cada vez mais descapitalizados, perdendo a capacidade de fazer um bom trabalho informativo.

“O risco é que a hipersuasão explore as vulnerabilidades dos indivíduos ou os oriente para decisões contrárias aos seus interesses”, alerta Floridi. “Aproveitá-la de forma frutífera e responsável é factível, a questão em aberto é se o faremos”, conclui.

Mas infelizmente muita gente usará as redes sociais e a IA para mentiras confortáveis.

 

O filósofo belga Mark Coeckelbergh, uma das maiores autoridades do mundo em ética da IA - Foto: Victor Lopes/Creative Commons

“Ética líquida” normalizada pelo mundo digital ameaça avanços da sociedade

By | Tecnologia | No Comments

Em meio a tantas discussões sobre o avanço cognitivo da inteligência artificial, sobre como ela está transformando o trabalho e os negócios, e até como ela parece ser capaz de nos substituir em qualquer coisa, a ética se sobressai como algo que ainda nos separa das máquinas. Por mais que a IA até simule convincentemente emoções, ela não as sente de fato.

A ética fica ainda mais distante dessa tecnologia. O problema é que, de uma década para cá, com as redes sociais, e mais acentuadamente agora, com a IA, cresce o número de pessoas que vivem sob o que chamo de “ética líquida”, que se flexibiliza e até desaparece para atingir objetivos pessoais. Se perdermos a nossa ética, abriremos mão daquele que é nosso maior diferencial frente às máquinas.

Nesta sexta, debati sobre isso com meu ex-professor de ética, o jornalista e escritor Jorge Tarquini. Em um encontro mais rico que qualquer conversa com uma plataforma de IA, analisamos essas transformações que o mundo digital promove em todos nós, em maior ou menor escala, e como isso pode criar problemas bem reais na sociedade.

Isso não pode ser um detalhe em nossas vidas. Nenhuma sociedade avança sem ética, ou as pessoas partiriam rumo à anarquia ou à bestialidade. Infelizmente, vemos o crescimento de ambos no nosso cotidiano, desembocando em violência, intolerância e egoísmo.

A IA pode nos ajudar muito pela sua execução eficiente. Mas não podemos nos comportar como ela, sob o risco de matarmos nossa humanidade.


Veja esse artigo em vídeo:


A ética não se resume a um conjunto de regras aplicadas mecanicamente. Ela nasce da experiência humana, do conflito entre valores, da consciência do outro e da capacidade de assumir responsabilidade por escolhas que afetam vidas reais. Ética envolve intenção, contexto, empatia e, sobretudo, a possibilidade de responder moralmente pelos próprios atos.

A inteligência artificial, por sua vez, calcula, otimiza, prevê e classifica com base em dados, objetivos e restrições definidos por pessoas. Mesmo ao executar padrões complexos, ela não compreende o sentido moral de suas ações. Um algoritmo não sente culpa, não reconhece injustiça e não pode ser responsabilizado pelo que executa.

Portanto, a IA não pode ser ética. Mas ela pode ser eticamente orientada, por desenvolvedores e usuários, esses sim, éticos. E aí mora o grande dilema atual. Com tanto poder que a IA e as redes sociais nos oferecem, pessoas antiéticas sequestraram o ambiente digital para distorcer a moral da sociedade e obter ganho próprio. E a população se deixa manipular por isso.

Como Tarquini disse, “as redes sociais são a nossa cachaça”, pois elas achatam nossos limites morais. Com isso, realizamos no ambiente digital práticas condenáveis que jamais faríamos “olho no olho”.

Ele lembrou também que reproduzir exaustivamente mantras e dogmas nas plataformas online diminuem o pensamento crítico. Esperar pelo contrário disso seria como “esperar que o ovo se transforme em omelete sozinho”, disse o professor.

 

“Liquefação da vida”

Disso tudo, extrapolei os conceitos de vida líquida do filósofo polonês Zygmunt Bauman, criando a ideia da “ética líquida”. Valores que antes eram sólidos em nossas vidas (e precisam continuar sendo) se tornam fluidos, adaptáveis à conveniência de nossos objetivos, mesmo os mais simplórios, moldando-se ao formato do algoritmo para obtermos migalhas de atenção.

Essa dinâmica afeta a todos, mas é devastadora para os jovens, cuja identidade ainda está em formação. Além disso, esse fenômeno não se restringe aos indivíduos, contaminando instituições, empresas e governos.

Vemos isso claramente na Europa, que historicamente liderou a regulação de direitos digitais, mas que agora cede às pressões das big techs e flexibiliza suas leis. O medo de perder a corrida tecnológica está servindo de justificativa para afrouxar a ética do desenvolvimento responsável.

Essa corrida desenfreada ignora o alerta do filósofo belga Mark Coeckelbergh sobre acreditarmos em um “agenciamento moral” da IA. Estamos atribuindo a sistemas automatizados decisões que exigem sensibilidade humana, redefinindo nossa própria vulnerabilidade.

Uma tecnologia que aprende demais sobre nós e é usada sem freios éticos torna-se uma arma de manipulação comportamental sem precedentes. E assim esquecemos da importância da nossa ética.

É uma triste realidade ver líderes políticos e empresariais se tornarem os maiores motores dessa flexibilização moral. Eles utilizam a potência das plataformas digitais não para o bem comum, mas para atingir objetivos mesquinhos, normalizando a violência retórica e a polarização.

Em um mundo onde as redes sociais ensinaram todos a falar demais e a ouvir pouco, a ética termina por se tornar um obstáculo inconveniente. A situação se agrava quando isso extrapola os limites do digital, aumentando e normalizando a violência, a intolerância e outros comportamentos que crescem no noticiário.

Não se trata de demonizar a tecnologia, e sim de reconhecer que eficiência sem limites morais corrói a sociedade. A pergunta mais honesta, portanto, não é se a inteligência artificial pode ser ética, mas se nós estamos sendo, ao colocá-la para decidir temas cada vez mais sensíveis sem governança adequada, sem transparência real e sem debate público consistente.

A IA precisa ser eticamente controlada, o que exige habilidades que nenhuma máquina possui, como consciência moral, compromisso com o outro e coragem para assumir consequências. Somos os responsáveis, portanto, por “tornar a IA mais ética” e por nos cuidar para que sua “eficiência a qualquer custo” não mate esse nosso grande diferencial.

 

Para Zygmunt Bauman, as relações frágeis digitais destroem o bem comum - Foto: Narodowy Instytut Audiowizualny/Creative Commons

Proibição australiana de redes sociais a jovens reflete o desespero de um país com os males digitais

By | Tecnologia | No Comments

Nesta quarta (10), começa a valer a lei australiana que proíbe que pessoas com menos de 16 anos acessem qualquer rede social. Extremista para alguns, inócua para outros, vejo essa medida como um movimento desesperado de uma sociedade que não sabe mais como lidar com os notórios males que essas plataformas causam às pessoas, especialmente os mais jovens. Diante do cinismo e da falta de colaboração das big techs, a Austrália decidiu “cortar o mal pela raiz”.

Enquanto isso, a Europa é pressionada pelo governo americano para afrouxar suas leis que protegem cidadãos contra abusos dessas companhias. A iniciativa australiana pode assim definir um novo marco civilizatório contra um grave problema que afeta todos os países, mas cujos governos repetidamente falham em encontrar soluções.

Ao contrário do que muitos dizem, não se trata de “perseguição” a essas empresas. Há apenas alguns dias, por exemplo, documentos de um processo judicial nos Estados Unidos revelaram a postura da Meta diante dos resultados de um estudo interno. Segundo ele, adolescentes que ficaram uma semana sem Facebook relataram menos depressão, ansiedade e solidão. Mas em vez de publicar os resultados e buscar soluções, a empresa enterrou o estudo, alegando falhas metodológicas.

Nada disso é isolado. Apesar dos benefícios que essas plataformas também nos oferecem, é inegável que elas distorcem relacionamentos. Tanto que as “palavras do ano” recentemente escolhidas pelos prestigiosos dicionários Oxford (“isca de raiva”) e Cambridge (“parassocial”) descrevem diferentes facetas dessa mudança.

Resta saber se a nova lei australiana conseguirá reduzir, pelo menos entre os mais jovens, a deterioração da saúde mental provocada pelas redes sociais, e se isso será replicado por outros países, a despeito da pressão americana.


Veja esse artigo em vídeo:


A expressão “isca de raiva” (“rage bait”, no original em inglês) significa conteúdo online “deliberadamente criado para provocar raiva ou indignação ao ser frustrante, provocativo ou ofensivo”, como uma prática intencional na disputa por atenção. Os organizadores do Dicionário Oxford explicaram que essa prática triplicou neste ano e que, se antes a Internet atraía a atenção pela curiosidade, agora ela sequestra e influencia nossas emoções mais negativas, como raiva e ódio.

“Parassocial”, por sua vez, representa sentimentos de intimidade unilaterais que muitas pessoas projetam em celebridades. Apesar de não ser algo novo, isso se tornou muito mais comum graças às redes e, mais recentemente, com a inteligência artificial, com pessoas que passam a se relacionar afetivamente com chatbots.

A nova lei australiana responsabiliza as próprias big techs por verificar a idade dos usuários e impedir que menores acessem as redes sociais, sob pena de multas que podem chegar a 50 milhões de dólares australianos (cerca de R$ 181 milhões). Meta e Google já iniciaram a remoção preventiva de perfis. Com ela, o governo local admite tacitamente que o ambiente digital se tornou tóxico demais para mentes em formação.

Isso nos remete imediatamente à profética declaração de Umberto Eco em 2015, de que a Internet havia dado voz a uma “legião de imbecis”. O drama atual é que as redes sociais não apenas promoveram o “idiota da aldeia” a portador da verdade, como sugeriu na época o filósofo italiano, mas o transformaram em um influenciador rentável. O “rage bait” industrializa a estupidez, com a indignação superando os fatos. A verdade perde seu valor intrínseco e torna-se apenas uma ferramenta performática para gerar engajamento.

O novo regime afetivo, moldado por algoritmos que amplificam extremos, corrói vínculos silenciosamente. O filósofo polonês Zygmunt Bauman descreveu essa “liquefação” da vida, em que relações frágeis servem ao mercado, mas destroem o bem comum. Ao nos afastar do real, as redes substituíram sentimentos verdadeiros por emoções performáticas, algo visível nestas duas “palavras do ano”.

 

Fábricas de egocentrismo

Bauman explicou como nos tornamos simultaneamente consumidores e produtos. Nas redes sociais, oferecemos versões editadas de nós mesmos para serem curtidas, comentadas e consumidas. Quando o engajamento cai, nos sentimos descartados, e quando alguém discorda de nós, bloqueamos a pessoa. Eco antecipou isso, pois, quando todos falam qualquer coisa, o conteúdo vira espetáculo, não substância.

O filósofo sul-coreano Byung-Chul Han completa esse quadro ao mostrar como a exigência de performance permanente nas redes nos esgota. Elas não só registram o que fazemos, como nos cobram produtividade emocional constante, opinião sobre tudo, presença em todos os debates e resposta imediata a qualquer provocação. Disso vem um cansaço difuso, que combina burnout, culpa e a sensação de que nunca estamos à altura do padrão de felicidade exigido nas telas, criando uma sociedade deprimida e ansiosa, que busca no ódio digital uma válvula de escape.

Quando dicionários escolhem termos que denotam raiva e ilusão como símbolos do ano, fica claro que esse novo regime digital é patológico. Assim, Eco estava certo ao temer a diluição da autoridade intelectual, pois a raiva brilha mais do que a sensatez.

Talvez a decisão da Austrália seja um exagero sob a ótica da liberdade individual, mas pode ser o alerta que o resto do mundo se recusa a ouvir. Bauman dizia que o medo se tornara ubíquo e difuso em nossos tempos. Portanto, nosso desafio é resgatar o compromisso com o outro, que seja real, ainda que imperfeito e difícil.

A saída para esse labirinto não reside apenas nas canetas dos legisladores, embora a regulação seja urgente e necessária para conter a ganância irresponsável das big techs. Precisamos decidir se estamos dispostos a reconstruir nossas relações para além das telas ou se aceitaremos que a indústria da atenção decida quem amamos, quem odiamos e até o que pensamos sobre nós mesmos.

A resposta não virá de Camberra, Bruxelas, Washington ou Brasília. Nós temos que escolher desligar o celular e olhar nos olhos de quem está ao lado. Precisamos resistir à tentação de transformar discordância em confronto e priorizar a substância sobre a performance. As redes sociais não nos salvarão da armadilha que elas criaram.

 

Inteligência artificial permite a criação de ataques cibernéticos muito mais eficientes - Foto: Freepik/Creative Commons

Em 2026, a IA transformará o cibercrime em uma operação contínua e autônoma

By | Tecnologia | No Comments

Enquanto o ChatGPT comemora seu terceiro aniversário, que aconteceu neste domingo (30), o mercado avalia como a inteligência artificial generativa revolucionou a segurança digital, no que há de bom e de ruim. Neste ano, esta tecnologia consolidou-se como o principal recurso dos criminosos para enganar suas vítimas, e a situação deve se agravar em 2026, segundo a empresa de cibersegurança Tenable.

O Brasil tornou-se um “laboratório” do cibercrime, com 315 bilhões de tentativas de ataques no primeiro semestre, que representam 84% do total da América Latina. Sofremos com ataques internacionais sofisticados e com golpes hiperlocalizados, moldados à linguagem e aos hábitos culturais do país. Essa combinação individualiza os riscos, que abandonam o caráter eventual e passam a ser estruturais e cotidianos.

A IA já permite que criminosos superem barreiras técnicas e linguísticas com facilidade. Ela automatiza a criação de iscas, clonando vozes ou estilos de escrita com fidelidade assustadora, o que torna a distinção entre o real e o falso quase impossível. Se em 2025 houve uma automação do golpe digital, para o ano que vem, os agentes de IA devem tornar esse processo ainda mais perigoso, executando ataques com autonomia, ajustando-se às reações das vítimas.

No lado da segurança, a mesma IA tenta equilibrar o jogo, analisando volumes massivos de dados para identificar comportamentos suspeitos antes que o dano ocorra de fato. Contudo, essa capacidade de defesa permanece, em muitos casos, como uma promessa vendida por fornecedores de software, enquanto a adaptação do ataque parece estar sempre um passo à frente da reação das empresas.

Indivíduos e empresas precisam entender que a tecnologia é fundamental, mas não resolverá um problema que é, cada vez mais, humano e político.


Veja esse artigo em vídeo:


Esse desequilíbrio se deve à também falta de informação das vítimas. “Quando o cidadão não entende o que é um vazamento, não acompanha se seus dados foram expostos e não sabe identificar sinais de golpe, o criminoso joga em campo aberto”, alerta Pedro Eurico Rego, engenheiro de sistemas da Tenable Brasil. Assim, eles têm acesso a dados pessoais por descuido cotidiano ou falhas estruturais de governos e empresas.

O cidadão não tem recursos para identificar golpes que usam até vozes clonadas, e isso une a vulnerabilidade individual ao risco sistêmico. “O caminho será adotar alguns freios simples e bem antigos, como combinar códigos em família para confirmar situações de emergência”, sugere Rego. “Nunca se deve tomar decisões financeiras sob pressão, desconfiando de pedidos urgentes por transferência e, sempre que possível, desligando e retornando a ligação por um número conhecido”, acrescenta.

Do lado das empresas, as grandes corporações investem milhões em cibersegurança, mas as pequenas continuam presas ao improviso. Esse desnível enfraquece todo o ecossistema, porque o atacante só precisa encontrar a porta de entrada mais frágil para atingir as organizações mais robustas.

A situação se agrava com infraestruturas críticas do país dependendo de poucos provedores globais. Quando falham, os danos são imensos, como nos problemas em servidores da Amazon e da Microsoft, em outubro, e da Cloudflare, em novembro. Esse quadro revela que a questão não é só técnica, mas também de soberania. Por isso, a Tenable sugere que, em 2026, a resiliência seja objetivo central de negócio.

Mas empresas continuam tropeçando no básico. Falham em inventários, permissões e identidades, além de manterem dados sensíveis em ambientes sem controle. Nesse cenário, executivos de tecnologia e de segurança enfrentam mais pressão, pois incidentes deixam de ser eventos técnicos e passam a ser narrativas públicas. Cada falha vira manchete e exige articulação imediata entre segurança, comunicação corporativa e gestão de crise.

 

Agentes do cibercrime

Os agentes de IA, que se sofisticaram ao longo de 2025, também ofereceram aos criminosos digitais autonomia para que esses sistemas executem ataques de ponta a ponta, em uma verdadeira “fábrica de golpes”. “O golpe deixa de ser uma ação isolada e vira uma campanha contínua, com a capacidade de aprender com o comportamento das vítimas e até mudar de estratégia”, explica Rego. “É como uma operação empresarial, só que voltada para o crime”.

Da mesma forma, governos tentam se proteger, mas a explosão de dados sensíveis nas mãos de criminosos alimenta a IA também para desinformação política, distorcendo realidades em eleições tensas, como as que têm acontecido no Brasil. Como tenho pesquisado em meu doutorado, essa distorção da realidade pode afetar o desenvolvimento de indivíduos. Aplicado à segurança, isso gera um caos social potencializado pela manipulação.

Temos diante de nós dois futuros simultâneos que disputam a hegemonia dos próximos anos. Um deles é o prometido pela indústria, com organizações que combinam governança e automação para agir de forma proativa. Do outro lado, há o das “fábricas de golpes”, que operam com eficiência asséptica e multiplicam ataques como se fossem campanhas de marketing.

Vivemos uma evidente e grave falha sistêmica em nossa sociedade. Se a tecnologia avançou tanto, chega a ser inaceitável que a proteção real das pessoas continue dependendo, de maneira determinante, do bom senso individual e de táticas analógicas de verificação diante de ataques tão sofisticados.

É cada vez mais difícil resistir à sedução algorítmica, seja para comprar todo tipo de quinquilharia, seja ao cair em golpes. Esse é um embate profundamente desigual entre máquinas e pessoas.

Precisamos urgentemente parar de tratar a cibersegurança como um produto de prateleira e encará-la como um pacto civilizatório de educação e de proteção mútua. Enquanto delegarmos apenas à tecnologia a solução de problemas que são essencialmente humanos e éticos, continuaremos sendo as vítimas perfeitas de um algoritmo que aprendeu a nos explorar melhor do que nós sabemos nos defender.