IA responsável

“Degradação” do conteúdo de uma imagem por repetidas interações com a IA – Ilustração: Paulo Silvestre

IA ameaça modelo que sustenta a Internet e a própria existência da tecnologia

By | Tecnologia | No Comments

As primeiras plataformas de inteligência artificial generativa, como o ChatGPT, se aproximam de seu terceiro aniversário. Em tão pouco tempo, conseguiram a proeza de mudar a maneira como buscamos informação. Mas apesar de suas vantagens inegáveis, elas ameaçam seriamente a maneira como a Internet se organizou e ironicamente a própria sobrevivência desses sistemas.

Nos últimos 30 anos, redes sociais e buscadores construíram seus impérios de mídia com conteúdo alheio. Apesar de alguns produtores desse material, especialmente veículos de comunicação, contestarem o modelo, essa usurpação sempre foi justificada com essas plataformas encaminhando seus usuários aos sites dos autores, que faturam com publicidade.

Como a IA entrega respostas completas, as pessoas não precisam mais clicar nos links para se aprofundar. Isso está achatando a audiência e as receitas dos criadores de conteúdo, que tentam fazer com que as big techs paguem pelas informações. As empresas de mídia são as vítimas mais visíveis, mas o problema afeta todo mundo.

Os caminhos abertos pela inteligência artificial não têm volta. Mas a ganância sem limites e o desrespeito aos direitos autorais das gigantes de tecnologia podem, em médio prazo, matar sua “galinha dos ovos de ouro”, pois a IA precisa continuamente de novas informações confiáveis para continuar funcionando bem.

Se os atuais produtores de conteúdo quebrarem e novos não surgirem pelo risco de terem seu trabalho roubado por essas empresas, não haverá mais nada para alimentar a besta digital. E então o modelo pode entrar em colapso.


Veja esse artigo em vídeo:


Pela característica de dispensar os usuários de procurar em uma infinidade de sites o que precisam, o ChatGPT foi rapidamente apelidado de “assassino do Google”. Obviamente era um exagero, mas essa concorrência fez o gigante de buscas se mexer, passando a iniciar as suas páginas de respostas com informações geradas pela sua própria IA. E isso agravou ainda mais a situação dos criadores de conteúdo.

Não é pouca coisa. A consultoria de tráfego online Similarweb estima que as pesquisas em buscadores desabaram 15% de janeiro a junho. Os sites de ciência e educação viram 10% de seus visitantes sumirem. No caso dos serviços de referência (como a Wikipedia), a queda foi de 15%, enquanto páginas de saúde perderam 31%. Por outro lado, desde que o Google incluiu textos da IA nas suas respostas, as buscas relacionadas a notícias que não resultam em cliques aumentaram de 56% para 69%.

Grandes empresas de mídia têm feito acordos com as big techs para licenciar seu conteúdo para treinarem a IA. Outras estão processando os gigantes digitais. Mas grande parte do conteúdo que a alimenta vem de uma infinidade de autores sem condições de lutar por seus direitos. De todo jeito, juízes americanos, influenciados pelo presidente Donald Trump, cada vez mais favorecem as companhias do Vale do Silício.

A situação dos produtores de conteúdo deve piorar ainda mais com o plano nacional de inteligência artificial anunciado por Trump no dia 23. Embora não mencione explicitamente direitos autorais, ele endossa a ideia de que as plataformas de IA tenham acesso irrestrito a conteúdos para treinar seus modelos. Trata-se de uma flexibilização implícita das leis de copyright, favorecendo as big techs.

Antes disso, no dia 10 de maio, Trump já havia demitido Shira Perlmutter, chefe do Escritório de Direitos Autorais, após a publicação de um relatório do órgão que questionava o treinamento de IAs com materiais protegidos por direitos autorais. O documento concluiu que isso ultrapassa os limites do uso justo na maioria dos casos.

Outra dor de cabeça criada pela IA para os autores deriva da facilidade de qualquer um produzir todo tipo de conteúdo. Um exemplo emblemático vem das plataformas de streaming de música, que estão sendo inundadas com novas músicas de baixa qualidade geradas por robôs. Cerca de 20 mil dessas trilhas são enviadas diariamente ao Deezer, 18% de todo o conteúdo recebido atualmente e o dobro do visto no início do ano. Como são feitas para agradar aos algoritmos que sugerem músicas aos usuários, elas tiram audiência e dinheiro dos músicos humanos.

 

Todos perdem, menos a IA

Os usuários também perdem muito com esse movimento, e isso começa por consumirem mais conteúdo de baixa qualidade, sejam texto, imagens ou músicas. Isso acontece porque, ao contrário das respostas convencionais de um buscador, em que as pessoas visitam sites criados com curadoria humana, a crescente produção da IA segue apenas os critérios da máquina.

Isso se complica com essas plataformas usando cada vez mais conteúdos gerados pela própria IA no seu treinamento. Assim, algo ruim criado por robôs leva a versões ainda piores no futuro. Para entender isso, basta fazer o exercício de pedir que a IA elabore uma imagem a partir de um original, depois uma terceira a partir da sua criação, e assim sucessivamente. A cada interação, a qualidade se degrada e se afasta da informação original.

Há outro problema ainda mais grave: a IA erra muito no que produz, mas as pessoas não percebem essas falhas. Já ficou comum dizer que é necessário fazer boas perguntas para se obter boas respostas dos robôs, mas pouca gente entende que precisa também ser capaz de analisar a qualidade do que eles entregam.

Aceitamos passivamente o que a IA nos empurra. Isso faz com que usemos mais informações erradas no nosso cotidiano, pois estamos nos tornando preguiçosos para verificar as informações e –pior– elaborar raciocínios e estratégias.

Claro que não proponho que a IA deixe de ser usada, pelo contrário! Mas ela deve ser bem utilizada. E os produtores daquilo que é apropriado para saciar sua fome infinita por informação devem ser remunerados de forma justa. Se as big techs quiserem continuar usando conteúdo alheio para viabilizar seu negócio multibilionário, deveriam, no mínimo, pagar a eles o que estão deixando de faturar graças à IA.

Em vez disso, essas gigantes preferem usar o poder do governo americano para aniquilar quem busca essa relação mais justa. Assim, os autores devem encontrar outras formas de remuneração, e então decidir se querem bloquear o acesso dos robôs ao que fazem.

Essa é uma questão ética, que impacta todas as pessoas seriamente na qualidade do conteúdo que consomem e em como pensam. Em um mundo ideal, os humanos poderiam obter informações gratuitamente, enquanto as plataformas de IA pagariam uma fortuna por elas. Ou então as big techs deveriam oferecer seus melhores produtos gratuitamente a todo mundo.

Mas isso elas jamais farão!

 

O presidente americano Donald Trump tenta desequilibrar a geopolítica usando a inteligência artificial - Ilustração: Paulo Silvestre

Plano de IA dos EUA adota caminho perigoso para superar China

By | Tecnologia | No Comments

O plano de inteligência artificial americano, divulgado na quarta passada (23), merece nossa atenção. Apesar dos grandes avanços da China, os EUA ainda lideram nessa tecnologia. Assim, suas ações influenciam a IA no mundo. Além disso, mecanismos da proposta podem impedir o Brasil de acessar tecnologias de ponta. Mas o que mais preocupa é a escolha de uma política de desenvolvimento irresponsável e perigosa.

A nova Guerra Fria acontece em torno da inteligência artificial. No anúncio do chamado “Plano de Ação de IA dos EUA: Vencendo a Corrida”, o presidente americano, Donald Trump, não economizou palavras para deixar isso claro.

Em suas 28 páginas, o documento se concentra em três pilares: acelerar a inovação em IA, construir infraestrutura americana, e liderar a diplomacia e segurança internacionais no setor. Eles atendem diretamente a demandas das big techs, como OpenAI, Google, Meta e Microsoft, que combatem ferozmente qualquer restrição a seus produtos, nos EUA e principalmente no exterior.

Essas regras vêm principalmente da Europa, mas também estão sendo criadas ao redor do mundo, inclusive no Brasil. Por aqui, o Marco da IA, aprovado pelo Senado Federal e francamente inspirado na Lei da IA europeia, está sendo discutido na Câmara. Por lá, Trump revogou a ordem executiva do governo anterior, que previa uma avaliação de risco no desenvolvimento de IA, e ameaça retirar recursos de Estados que tenham leis mais restritivas, como a Califórnia.

A nova diretriz manda às favas a prudência recomendada pelos maiores especialistas em IA do mundo. É um documento mais político que técnico, acenando aos eleitores mais radicais de Trump e às gigantes de tecnologia, essenciais para seus planos.

A IA não pode ser vista como apenas “mais uma tecnologia”. Sua evolução desafia os próprios desenvolvedores e ela pode facilmente ser usada para criar severos danos à humanidade. Ao tratá-la de forma política, esses riscos crescem exponencialmente.


Veja esse artigo em vídeo:


Trump quer transformar os EUA em um território livre para o avanço da IA, eliminando o que considera “barreiras regulatórias desnecessárias”. O novo plano prevê revisar ou suprimir normas federais que limitariam a inovação, incentivando a atuação do setor privado, ao promover a desburocratização em todas as áreas ligadas à IA.

A estratégia também altera diretrizes técnicas e regulatórias, retirando referências a diversidade, inclusão, mudança climática e desinformação dos guias federais. A justificativa é garantir que os sistemas de IA promovam a liberdade de expressão e reflitam “valores americanos”, do ponto de vista conservador. Para Trump, a IA deve buscar a objetividade, sem filtros que comprometam sua função de transmitir “a verdade”. E isso, por si só, é temerário, pois a IA reconhecidamente erra, e muito.

O documento incentiva a construção de data centers, fábricas de semicondutores e infraestrutura energética, essenciais para a liderança dos EUA no setor. Para isso, propõe simplificar licenças ambientais, criar exceções dentro do marco regulatório e até permitir o uso de fontes de energia “sujas”, como termelétricas, ignorando seu impacto. A meta é garantir velocidade na expansão da infraestrutura física que sustenta a IA, mesmo que isso signifique driblar normas ecológicas.

Embora o plano não mencione explicitamente os direitos autorais, ele endossa a ideia de que as plataformas de IA tenham acesso irrestrito a conteúdos para treinar seus modelos. Ao defender que obstáculos legais sejam eliminados, abre caminho para que obras protegidas, como livros, músicas e imagens, sejam usadas sem consentimento dos autores. Trata-se de uma flexibilização implícita das leis de copyright, favorecendo as big techs e colocando em risco a remuneração e os direitos de criadores.

Pela proposta, os EUA exportarão seus modelos, softwares e equipamentos de IA apenas a países aliados, garantindo que eles adotem padrões americanos. Ao mesmo tempo, impedirão que adversários tenham acesso a tecnologias sensíveis. Essa política transforma a IA em instrumento de influência internacional, usando sua distribuição como ferramenta diplomática e de contenção estratégica.

O Brasil pode ser ainda mais pressionado pelos EUA, para se submeter aos interesses das big techs. Caso contrário, podemos ser impedidos de ter acesso a tecnologias de ponta e de firmar colaborações de pesquisa e comerciais.

 

“Vieses ideológicos” na IA

Vale notar que o que o governo americano chama de “eliminar vieses ideológicos” na IA significa filtrar suas respostas, para remover conteúdos que considera inadequados. Ironicamente, isso inclui um viés ideológico. Mas tentativas anteriores de se fazer isso não funcionaram: as plataformas continuaram criando respostas que os extremistas não aprovavam por serem moderadas e promoverem diversidade.

Alguns episódios mancharam a reputação de plataformas quando foram lançadas, como quando o gerador de imagens da IA do Google incluiu negros e japoneses entre soldados nazistas. Nesses casos, a diversidade gerou erros de informação histórica. Mas fica difícil eliminar a variedade da vida “na marra”, quando a maioria dos conteúdos usados para treinar a IA tem natureza diversa. Seria necessário eliminar todas essas informações da base, o que é inviável.

O temor é que, ao insistir nisso, as plataformas de inteligência artificial americanas passem a se comportar como as chinesas no que elas têm de pior: a censura explícita. Sistemas como o DeepSeek deliberadamente não abordam assuntos que o governo de Pequim reprova, apesar de serem capazes de dar boas respostas sobre eles.

O novo plano americano reconhece explicitamente que os sistemas de IA podem representar riscos em áreas como ciberataques, desenvolvimento de armas de toda natureza e vulnerabilidades de segurança. Por isso, propõe que os EUA compreendam essas ameaças, que estarão nas mãos de adversário em breve.

Esses riscos e a politização da IA sintetizam os problemas dessas regras, com uma geopolítica agora fortemente vinculada à inteligência artificial. Não se espera muito da China, um país que pratica a censura abertamente e que atropela a ética e até o bom senso para roubar a liderança política e econômica dos EUA.

Os americanos sempre se contrapuseram a isso, e, pelo menos em tese, mantinham sua influência global por exemplos considerados positivos na ciência e nos negócios. Agora agirão nos termos chineses, por medo de serem ultrapassados por eles.

Assim o mundo vê suas duas maiores potências em um vale-tudo explícito, com consequências imprevisíveis. O desenvolvimento irresponsável ou descuidado da IA pode promover uma manipulação sem precedentes, achatar o senso crítico das pessoas e até concretizar alguns cenários distópicos da ficção científica.

 

Thiago Viola, diretor de Inteligência Artificial, Dados e Automação da IBM Brasil, durante o AI Forum – Foto: Paulo Silvestre

Enquanto superinteligência artificial continua na ficção, agentes tentam ampliar poderes da IA

By | Tecnologia | No Comments

Desde o fim de 2024, ouço líderes de grandes empresas de tecnologia dizer que 2025 seria “o ano dos agentes de inteligência artificial”. Estamos agora no meio do ano, e esses sistemas começam a mostrar mais força, inclusive com o surgimento de plataformas que integram diversos deles para realizar tarefas mais complexas. Resta saber quanto disso cumpre a promessa e quanto é apenas marketing tecnológico, e quais os benefícios e os riscos de seu uso.

Agentes são sistemas potencializados pela IA capazes de realizar tarefas com pouca ou nenhuma supervisão humana. Ao contrário de plataformas populares, como o ChatGPT, podem funcionar de maneira contínua, monitorando o ambiente sem necessidade de comandos para cada ação, e aprendendo a cada interação.

Essa autonomia representa um grande benefício, mas também acende alguns alertas. Especialmente com a chegada da inteligência artificial generativa e suas conhecidas “alucinações”, a operação de agentes não supervisionados pode incluir erros sérios nos negócios. E com diversos deles trabalhando de maneira orquestrada, um agente “mal-comportado” pode corromper outros, até mesmo disseminando vieses.

O discurso das big techs se apoia em investimentos bilionários e em sua corrida tecnológica. Mas é preciso separar o que já é realidade do que ainda é expectativa. O levantamento CEO Study, publicado pelo Institute for Business Value da IBM, mostra que, enquanto 61% das empresas no mundo que usam IA em sua operação já implementaram agentes, no Brasil esse índice é de 67%. Até o fim do ano, a taxa global deve chegar a 85%.

No entanto, a autonomia desses agentes ainda é limitada. O que se vê, na prática, é uma adoção para tarefas específicas e repetitivas, enquanto usos mais sofisticados ainda exigem supervisão humana e governança robusta.

Assim, passada metade do “ano dos agentes”, eles avançam, mas de uma maneira não tão exuberante. A desejada autonomia plena, com tomada de decisões complexas e adaptação a contextos ambíguos, segue como objetivo em desenvolvimento.


Veja esse artigo em vídeo:


Na quinta passada, participei do IBM AI Forum, em São Paulo, onde conversei com Thiago Viola (foto), diretor de Inteligência Artificial, Dados e Automação da IBM Brasil. Segundo ele, o crescimento dos agentes está migrando para fluxos mais sofisticados, com agentes especializados e independentes atuando em conjunto.

Para que isso seja possível, plataformas como o IBM Watsonx Orchestrate e a SAP Joule atuam como interfaces amigáveis, que recebem as demandas dos usuários em linguagem natural. Elas então acionam os agentes necessários, mesmo de diferentes fornecedores, para realizar a tarefa. As respostas, até as mais complexas, chegam consolidadas e também em bom português.

Isso é um grande avanço. Assim, o usuário fica livre de interfaces às vezes demasiadamente complexas de sistemas como ERPs e CRMs, ou de aplicações antigas. Os agentes extraem e consolidam todas as informações necessárias.

“É como se o sistema legado virasse uma base de conhecimento, e o agente de IA passa, então, a criar essa camada de uso, sem que o usuário precise tocar no sistema”, explica Viola. “O agente terá essa conexão criada e esse ‘self learning’ de fazer esse recorte, entender e projetar isso como resposta para o usuário.”

A orquestração de agentes também traz riscos. A chance de ciberataques cresce, com esses sistemas podendo se tornar vetores para extração de dados e invasões. A complexidade de coordenação aumenta exponencialmente com mais agentes, elevando o risco de conflitos (comportamentos contraditórios) e conluios (cooperação indesejada) entre os agentes, podendo levar à perda da tarefa determinada.

“Se você tiver um modelo que está enviesado e você o combina com outros, a tendência é que isso comece a gerar um ‘drift’, ele começa a sair do foco”, detalha Viola. Para mitigar esses riscos, seres humanos precisam usar ferramentas para calibrar alucinações, rastrear tomadas de decisão e auditar comportamentos da IA.

 

IA mais fácil

Essas plataformas de orquestração de agentes devem ainda ajudar a resolver a baixa utilização dos dados empresariais pela IA, outro ponto crítico para melhores decisões de negócios. Estima-se que 99% deles ainda não sejam usados, por estarem armazenados em sistemas legados, não estruturados ou de baixa qualidade.

Mas vele lembrar que a IA não toma boas decisões com dados ruins. Como já foi dito nesse espaço várias vezes, o primeiro passo para uma boa IA é o investimento em governança de dados, com curadoria, normalização e atualização constante.

Com essas novas interfaces, a criação de agentes de IA também se torna cada vez mais fácil, sem a necessidade de programadores experientes. Ainda assim, isso não elimina a necessidade de conhecimento do negócio, de gestão de riscos e de uma cultura organizacional preparada para lidar com tecnologias autônomas.

Por isso, a narrativa de que os agentes de IA redefinirão o trabalho não implica substituição em massa, mas sim uma mudança fundamental em como trabalhamos. A realidade de sua adoção em 2025 é a de equipes híbridas, em que agentes lidam com a rotina e o volume, liberando os humanos para o pensamento crítico, a criatividade e a tomada de decisões complexas, que não devem ser totalmente automatizadas.

Essa tecnologia, embora avançada, ainda não atingiu a maturidade para operar sem uma significativa intervenção humana, especialmente em cenários de alta criticidade ou complexidade. Por isso, os inegáveis benefícios oferecidos pelos agentes não podem justificar que abandonemos nossa responsabilidade ou autonomia. Só assim poderão cumprir seu papel como aliados e não como riscos ocultos disfarçados de eficiência.

O “hype” em torno dos agentes de IA serve como um catalisador para investimentos e experimentação, impulsionando a inovação. A tendência é de uma integração cada vez mais profunda da IA com os fluxos de trabalho, com a evolução de agentes mais especializados e multimodais.

O sucesso dependerá de as organizações se adaptarem cultural e operacionalmente, transformando o potencial da IA em resultados sustentáveis e garantindo que a tecnologia sirva como um motor de desenvolvimento inclusivo e responsável, sem dispensar os seres humanos.