governança

Sam Altman (OpenAI) e Dario Amodei (Anthropic) não deram as mãos para foto na Cúpula de Impacto da IA em Nova Délhi – Foto: reprodução

Busca pela superinteligência artificial esconde interesses, brigas, riscos e muita cortina de fumaça

By | Tecnologia | No Comments

Na quinta passada, durante a Cúpula de Impacto da IA em Nova Délhi, Sam Altman, CEO da OpenAI, e Dario Amodei, CEO da Anthropic, se recusaram a dar as mãos para uma foto em grupo, ao lado do primeiro-ministro indiano, Narendra Modi. Seria uma bobagem, se eles não liderassem as empresas criadoras do ChatGPT e do Claude, duas das principais plataformas de IA do mundo.

O gesto explicita a corrida insana pela superinteligência artificial, um cenário hipotético em que as máquinas teriam ampla autonomia operacional e seriam melhores que os seres humanos em quase todas as tarefas cognitivas. Quem chegar lá primeiro assumirá uma inigualável liderança econômica e política. Mas há sérios riscos que não podem ser ignorados nesse desenvolvimento.

De certa forma, essa concorrência desmedida contraria o que diz o documento final da cúpula indiana, que prega que “a promessa da IA só se realiza plenamente quando seus benefícios são compartilhados por toda a humanidade”. Mas vozes dissonantes nas próprias organizações afirmam que, para vencer essa disputa, empresas e governos estão perigosamente abandonando a ética e a segurança.

Isso vem provocando reações. Mustafa Suleyman, CEO da unidade de IA da Microsoft, fala de uma “superinteligência humanista”. Enquanto isso, mais de 135 mil pessoas, incluindo alguns dos principais pesquisadores da IA do mundo, como Geoffrey Hinton e Yoshua Bengio, já assinaram uma declaração que propõe o fim dessa corrida. No Brasil, o manifesto ContAIn Now sugere financiar uma infraestrutura de governança que torne a contenção da IA mais rentável do que a imprudência.

Como diz o ditado, “onde há fumaça, há fogo”. O encontro na Índia deixou claro os descomunais interesses econômicos e políticos, os conflitos, as possibilidades e os riscos em torno da IA. Diante de tudo isso, não podemos ser ingênuos ou catastrofistas se quisermos buscar soluções verdadeiramente sustentáveis.


Veja esse artigo em vídeo:


A existência da Anthropic é fruto desse desconforto. Ela nasceu de uma dissidência da OpenAI, quando Amodei e outros pesquisadores deixaram a empresa por discordarem do ritmo acelerado de comercialização e da suposta redução de foco na segurança. Foi um “racha” que marcou o início de uma divisão profunda na indústria entre quem quer avançar a qualquer custo e quem se preocupa com as consequências.

A Cúpula na Índia tentou vender a agenda de “Pessoas, Planeta, Progresso”. Mas, nos corredores, um intenso debate opunha as intenções de acelerar ou conter o desenvolvimento da IA, expandir sua capacidade ou estruturar limites. A promessa de democratização da tecnologia muitas vezes serviu apenas como “verniz diplomático” para esconder a tensão sobre quem deve, de fato, ditar as regras e conter os riscos.

A geopolítica permeou cada painel. A Índia buscou assumir a liderança do Sul Global na tecnologia, enquanto os EUA tratam a IA como uma corrida decisiva contra a China, afrouxando regras e ameaçando retaliar países que a regulem demais. A Europa, por sua vez, continua insistindo em marcos rígidos e o Brasil defendeu o multilateralismo e o desenvolvimento inclusivo.

Esses projetos colidem na prática. É inevitável questionar, portanto, se existe um ponto de convergência real ou se estamos apenas empilhando discursos bonitos sobre estruturas de poder que continuam profundamente autocentradas.

A corrida pela superinteligência é a versão atual da “tragédia dos comuns”. Ninguém tem incentivo para desacelerar sozinho. Mesmo quando as big techs admitem publicamente os perigos, elas continuam investindo bilhões para não perderem mercado, temendo que cautela se torne oportunidade de domínio do concorrente.

 

Marketing ou tecnologia humanista?

Suleyman propõe abrir mão de parte da capacidade para garantir o controle humano da IA. A ideia tem mérito ao reconhecer limites, mas também cumpre uma função estratégica, legitimando a Microsoft na corrida, ao afirmar que é possível ser rápido e também prudente, ainda que essa equação nunca tenha sido simples na tecnologia.

Pyr Marcondes, autor do ContAIn Now, reconhece que Suleyman é um dos pensadores mais sérios do setor, mas não poupa críticas a essa ideia. “Só o capital pode deter o capital e só a IA pode deter a IA”, afirma.

O movimento propõe uma via pragmática em que a governança seja estrutural e financeira. A ideia é construir um ecossistema que transforme o cumprimento de normas de segurança e auditoria em um mercado rentável, semelhante ao que ocorreu com a conformidade ambiental. “A solução não é convencer pessoas a serem mais responsáveis, e sim construir sistemas em que a responsabilidade seja economicamente recompensada e a irresponsabilidade seja penalizada”, acrescenta.

Não seria a primeira vez que veríamos conceitos éticos serem reduzidos a slogans. “IA ética” tornou-se peça de marketing e “IA responsável” criou departamentos de conformidade com pouco poder. Agora, “humanista” corre o risco de ser a nova camada retórica aplicada à superinteligência artificial.

Quando um executivo fala em “humanismo” sem definir como será feita a auditoria ou quem será responsabilizado por falhas, pode estar simplesmente “comprando tempo” para consolidar sua posição. Sem critérios técnicos que permitam aos humanos entender a lógica interna dos algoritmos (a chamada interpretabilidade), a promessa de controle continua sendo uma fronteira nebulosa e perigosa.

Dizer que “estamos à beira da extinção” simplifica demais um problema complexo, assim como acreditar que “o mercado resolverá tudo de forma espontânea” é uma ingenuidade grotesca. Talvez o ponto mais honesto dessa discussão seja assumir que os próprios desenvolvedores admitem que não possuem garantias totais de controle sobre o que estão criando, mas a inércia competitiva os impede de pisar no freio.

A questão central para o nosso futuro não é se a inteligência artificial será transformadora, pois essa transição já ocorreu e molda o nosso presente. O verdadeiro desafio civilizacional é se conseguiremos construir, com a mesma agilidade com que expandimos a capacidade das máquinas, uma arquitetura política e econômica capaz de sustentá-la com ética e dignidade humana.

Esse desafio só poderá ser superado nos parlamentos, nas empresas, nas universidades e nas ruas, pelos mesmos humanos que a superinteligência artificial promete superar.

 

Patrick Hevesi e Oscar Isaka, do Gartner, durante a abertura da conferência sobre segurança e gestão de risco – Foto: divulgação

Euforia pela IA ajuda a transformar cibersegurança em pilar estratégico dos negócios

By | Tecnologia | No Comments

No dia 2 de julho, o Brasil acordou com a notícia do maior crime digital da sua história: o ataque à C&M Software, que desviou pelo menos R$ 800 milhões de instituições financeiras conectadas ao Pix. Não houve violação ao sistema, pois os criminosos fizeram as transferências usando credenciais legítimas de um prestador de serviços. Isso demonstra que a cibersegurança não pode mais se limitar à proteção da estrutura de TI, precisando envolver pessoas, dados e processos. A inteligência artificial destaca ainda mais o tema, que deve ser visto como um pilar dos negócios.

Essas foram algumas das principais conclusões da Conferência Gartner de Segurança e Gestão de Risco, que aconteceu em São Paulo nos dias 5 e 6 de agosto. A mensagem central do evento foi que gestores não podem ignorar ou combater a euforia em torno da IA, e sim usá-la como motor de mudanças planejadas que diferenciam líderes apenas reativos daqueles que realmente geram valor estratégico.

Essa visão já é realidade em mercados mais maduros e avança globalmente, inclusive no Brasil. Estudos do Gartner sugerem que, até 2026, metade dos executivos de alto escalão deverá ter indicadores de performance em cibersegurança atrelados aos seus contratos de remuneração, e isso não se restringe aos líderes de tecnologia.

Não dá para ser diferente. Os bandidos já usam a IA para sofisticar seus ataques, como na adoção de agentes de IA que imitam o comportamento humano para burlar proteções de segurança. Assim, a IA automatiza ameaças em grande escala.

Isso não afeta apenas grandes corporações. Com a “Internet dos humanos” evoluindo para dispositivos ligados às pessoas (e eventualmente controlando funções vitais, como um marcapasso conectado), hackers poderão ameaçar vidas remotamente.

Nesse cenário, a preocupação não deve ser se estamos seguros, e sim se estamos tomando medidas adequadas para mitigar ameaças dentro do nosso apetite de risco.


Veja esse artigo em vídeo:


Para isso, a implantação de uma governança eficaz é crucial. O primeiro passo é começar pequeno, evitando uma sobrecarga inicial de dados e incidentes. Em seguida, é fundamental identificar e priorizar riscos, atribuindo-lhes valor financeiro para orientar os investimentos. Outro ponto central é traduzir os riscos de dados em linguagem de negócio, facilitando o entendimento e o apoio da alta gestão.

“Usar a energia da mudança ou o entusiasmo das pessoas para alimentar nossa agenda é uma jogada de poder político no que as pessoas chamam de tempos interessantes”, explicou Oscar Isaka, diretor-sênior do Gartner. “Os incidentes cibernéticos associados à tecnologia exploratória estão atingindo os resultados financeiros, então os executivos estão prestando atenção à cibersegurança.”

O Gartner sugere que os executivos de segurança da informação trabalhem três pontos para conseguir isso. No primeiro eixo, devem demonstrar como os investimentos em segurança contribuem para os objetivos da empresa, usando transparência e dados, em vez de medo e incerteza.

Além disso, a segurança cibernética deve ser vista como um laboratório para experimentação com IA. Ao adotar essa tecnologia para análise de ameaças, a área de segurança não apenas mitiga riscos, mas também impulsiona as ambições de longo prazo da empresa em inteligência artificial.

Por fim, a agilidade nas mudanças é essencial, pois a IA amplia a superfície de ataque e os riscos, como ameaças internas potencializadas por ela. Nesse ponto, os profissionais devem ser treinados e ter autonomia. Assim, automatizarão tarefas repetitivas, enquanto desenvolvem novas habilidades para impulsionar o seu crescimento, tornando-se agentes resilientes da mudança.

Mas nada disso resolve se cuidados básicos com as pessoas não forem observados.

 

O fator humano

Os gestores precisam transformar o comportamento dos usuários, sejam eles funcionários ou clientes, para que a segurança se torne um hábito, e não uma obrigação imposta. E temos uma cultura muito pobre nisso.

Isaka deu como exemplo a naturalidade com que compartilhamos nosso CPF para descontos em farmácias ou até para abrir a comanda em um bar. “O CPF é o que nos torna cidadãos brasileiros”, alertou. Segundo ele, “se eu pegar seu CPF e informar na Receita Federal, eu saberei mais de você do que você mesmo!”

O mesmo vale para a banalização dos QR Codes, escaneados sem preocupação e que podem levar a pessoa a um site em que seus dados pessoais serão roubados. Isso se reflete no trabalho, onde funcionários podem, com a mesma displicência, inserir dados sensíveis da empresa em sites não seguros ou em plataformas de IA.

Essa falta de cultura torna as pessoas o elo mais fraco. Elas podem ver os controles de segurança como um obstáculo em seu cotidiano, procurando formas de contorná-los para “fazer seu trabalho mais rápido”, ou cometer erros por falta de atenção.

Segundo Paulo Aresta, analista-sênior do Gartner, a rigidez de algumas regras de segurança não é uma escolha, e sim uma consequência de uma cultura organizacional sem colaboração, comunicação eficaz ou uma visão de riscos e objetivos compartilhada entre a segurança e o negócio.

“Quando colocamos pressão na gestão de segurança, ela tende a ter dificuldades em ser aplicada de uma maneira objetiva e eficaz”, afirmou. Ele explicou que apenas 14% das empresas conseguem equilibrar a segurança e a agilidade para inovar e crescer.

Ninguém pode dizer que está seguro. O desafio das empresas é que, quando (e não “se”) ataques ocorrerem, elas não sejam pegas de surpresa. Os incidentes são inevitáveis, mas podem ter impactos minimizados com preparo e reação rápida.

Obviamente não dá para “nos proteger do futuro”, mas podemos nos tornar “prontos para o futuro”. Isso exige que tenhamos uma mentalidade que vá além das urgências do dia a dia, para podermos antecipar cenários disruptivos.

Afinal, o futuro está sempre em movimento. Não devemos buscar ser infalíveis, mas sim ágeis e resilientes para nos adaptarmos ao que vier.

 

Thiago Viola, diretor de Inteligência Artificial, Dados e Automação da IBM Brasil, durante o AI Forum – Foto: Paulo Silvestre

Enquanto superinteligência artificial continua na ficção, agentes tentam ampliar poderes da IA

By | Tecnologia | No Comments

Desde o fim de 2024, ouço líderes de grandes empresas de tecnologia dizer que 2025 seria “o ano dos agentes de inteligência artificial”. Estamos agora no meio do ano, e esses sistemas começam a mostrar mais força, inclusive com o surgimento de plataformas que integram diversos deles para realizar tarefas mais complexas. Resta saber quanto disso cumpre a promessa e quanto é apenas marketing tecnológico, e quais os benefícios e os riscos de seu uso.

Agentes são sistemas potencializados pela IA capazes de realizar tarefas com pouca ou nenhuma supervisão humana. Ao contrário de plataformas populares, como o ChatGPT, podem funcionar de maneira contínua, monitorando o ambiente sem necessidade de comandos para cada ação, e aprendendo a cada interação.

Essa autonomia representa um grande benefício, mas também acende alguns alertas. Especialmente com a chegada da inteligência artificial generativa e suas conhecidas “alucinações”, a operação de agentes não supervisionados pode incluir erros sérios nos negócios. E com diversos deles trabalhando de maneira orquestrada, um agente “mal-comportado” pode corromper outros, até mesmo disseminando vieses.

O discurso das big techs se apoia em investimentos bilionários e em sua corrida tecnológica. Mas é preciso separar o que já é realidade do que ainda é expectativa. O levantamento CEO Study, publicado pelo Institute for Business Value da IBM, mostra que, enquanto 61% das empresas no mundo que usam IA em sua operação já implementaram agentes, no Brasil esse índice é de 67%. Até o fim do ano, a taxa global deve chegar a 85%.

No entanto, a autonomia desses agentes ainda é limitada. O que se vê, na prática, é uma adoção para tarefas específicas e repetitivas, enquanto usos mais sofisticados ainda exigem supervisão humana e governança robusta.

Assim, passada metade do “ano dos agentes”, eles avançam, mas de uma maneira não tão exuberante. A desejada autonomia plena, com tomada de decisões complexas e adaptação a contextos ambíguos, segue como objetivo em desenvolvimento.


Veja esse artigo em vídeo:


Na quinta passada, participei do IBM AI Forum, em São Paulo, onde conversei com Thiago Viola (foto), diretor de Inteligência Artificial, Dados e Automação da IBM Brasil. Segundo ele, o crescimento dos agentes está migrando para fluxos mais sofisticados, com agentes especializados e independentes atuando em conjunto.

Para que isso seja possível, plataformas como o IBM Watsonx Orchestrate e a SAP Joule atuam como interfaces amigáveis, que recebem as demandas dos usuários em linguagem natural. Elas então acionam os agentes necessários, mesmo de diferentes fornecedores, para realizar a tarefa. As respostas, até as mais complexas, chegam consolidadas e também em bom português.

Isso é um grande avanço. Assim, o usuário fica livre de interfaces às vezes demasiadamente complexas de sistemas como ERPs e CRMs, ou de aplicações antigas. Os agentes extraem e consolidam todas as informações necessárias.

“É como se o sistema legado virasse uma base de conhecimento, e o agente de IA passa, então, a criar essa camada de uso, sem que o usuário precise tocar no sistema”, explica Viola. “O agente terá essa conexão criada e esse ‘self learning’ de fazer esse recorte, entender e projetar isso como resposta para o usuário.”

A orquestração de agentes também traz riscos. A chance de ciberataques cresce, com esses sistemas podendo se tornar vetores para extração de dados e invasões. A complexidade de coordenação aumenta exponencialmente com mais agentes, elevando o risco de conflitos (comportamentos contraditórios) e conluios (cooperação indesejada) entre os agentes, podendo levar à perda da tarefa determinada.

“Se você tiver um modelo que está enviesado e você o combina com outros, a tendência é que isso comece a gerar um ‘drift’, ele começa a sair do foco”, detalha Viola. Para mitigar esses riscos, seres humanos precisam usar ferramentas para calibrar alucinações, rastrear tomadas de decisão e auditar comportamentos da IA.

 

IA mais fácil

Essas plataformas de orquestração de agentes devem ainda ajudar a resolver a baixa utilização dos dados empresariais pela IA, outro ponto crítico para melhores decisões de negócios. Estima-se que 99% deles ainda não sejam usados, por estarem armazenados em sistemas legados, não estruturados ou de baixa qualidade.

Mas vele lembrar que a IA não toma boas decisões com dados ruins. Como já foi dito nesse espaço várias vezes, o primeiro passo para uma boa IA é o investimento em governança de dados, com curadoria, normalização e atualização constante.

Com essas novas interfaces, a criação de agentes de IA também se torna cada vez mais fácil, sem a necessidade de programadores experientes. Ainda assim, isso não elimina a necessidade de conhecimento do negócio, de gestão de riscos e de uma cultura organizacional preparada para lidar com tecnologias autônomas.

Por isso, a narrativa de que os agentes de IA redefinirão o trabalho não implica substituição em massa, mas sim uma mudança fundamental em como trabalhamos. A realidade de sua adoção em 2025 é a de equipes híbridas, em que agentes lidam com a rotina e o volume, liberando os humanos para o pensamento crítico, a criatividade e a tomada de decisões complexas, que não devem ser totalmente automatizadas.

Essa tecnologia, embora avançada, ainda não atingiu a maturidade para operar sem uma significativa intervenção humana, especialmente em cenários de alta criticidade ou complexidade. Por isso, os inegáveis benefícios oferecidos pelos agentes não podem justificar que abandonemos nossa responsabilidade ou autonomia. Só assim poderão cumprir seu papel como aliados e não como riscos ocultos disfarçados de eficiência.

O “hype” em torno dos agentes de IA serve como um catalisador para investimentos e experimentação, impulsionando a inovação. A tendência é de uma integração cada vez mais profunda da IA com os fluxos de trabalho, com a evolução de agentes mais especializados e multimodais.

O sucesso dependerá de as organizações se adaptarem cultural e operacionalmente, transformando o potencial da IA em resultados sustentáveis e garantindo que a tecnologia sirva como um motor de desenvolvimento inclusivo e responsável, sem dispensar os seres humanos.

 

Geoffrey Hinton, o “padrinho da IA”, alerta dos riscos de se criar sistemas que não consigamos entender ou controlar - Foto: reprodução

Vaidade e corrida militar podem virar a inteligência artificial contra a humanidade

By | Tecnologia | No Comments

“Vaidade é definitivamente meu pecado favorito.” A afirmação é de John Milton, vivido por Al Pacino no filme “O Advogado do Diabo” (1997). O personagem, na verdade o próprio diabo, revela essa predileção por ser o pecado mais insidioso, aquele que seduz o ser humano fazendo-o acreditar que está buscando grandeza, quando na verdade está apenas servindo ao próprio ego.

Três décadas depois, essa proposta ganha uma força desconcertante e perigosa no cenário do desenvolvimento da inteligência artificial. As big techs disputam uma corrida vertiginosa para alcançar a chamada “inteligência artificial geral” (AGI).

Empresas como OpenAI, Google, Anthropic apresentam seus modelos com pompa e retórica messiânica. Falam em democratizar a IA, ampliar nossas competências e garantir o bem da humanidade. Mas os bastidores, invisíveis ao público, incluem a vaidade de ser a primeira, de controlar a narrativa, de figurar na história como criadora da próxima grande evolução da espécie.

O documento “AI 2027”, publicado no dia 3 de abril por um grupo de pesquisadores liderados por Daniel Kokotajlo, traça um cenário no qual o avanço da IA acontece de forma tão acelerada, que escapa ao controle humano. Agentes de IA começam a se autodesenvolver, a simular comportamentos, a enganar pesquisadores e a realizar tarefas tão eficientemente, que os humanos se tornam obsoletos em algumas áreas.

Essa evolução não é movida apenas por mérito técnico. É alimentada por competição feroz, sigilo estratégico, espionagem e um desejo cada vez mais explícito de manter o protagonismo global. Não é algo comum, como o lançamento de uma nova versão do Android. Por isso lideranças políticas e militares acompanham esse progresso de perto e o influenciam cada vez mais, de olho na geopolítica global e no seu próprio poder.

Levantamentos como o “AI 2027”, por mais bem intencionados e sérios que sejam em sua produção, incluem uma considerável dose de futurismo incerto. Ainda assim, promovem debates sociais importantes, que podem evitar que visões apocalípticas se concretizem. Mas como ele propõe, talvez a humanidade não esteja pronta para lidar com as consequências de a criatura se voltar contra o criador.


Veja esse artigo em vídeo:


Kokotajlo era pesquisador da área de governança da OpenAI, criadora do ChatGPT. Ele se demitiu no ano passado por iniciativas da empresa que achava imprudentes, e criou a organização sem fins lucrativos AI Futures Project, em Berkeley (EUA).

Seu estudo apresenta um cenário detalhado sobre o impacto da inteligência artificial super-humana até 2027, prevendo que será maior que o da Revolução Industrial. O texto foi elaborado com base em extrapolações de tendências, exercícios de simulação, entrevistas de especialistas e experiências em grandes centros de pesquisa em IA. Ao final, oferece dois cenários possíveis para os anos seguintes: um, mais sombrio, em que a corrida pela IA continua a provocar danos à humanidade, e outro, mais esperançoso, em que empresas e governos desaceleram o desenvolvimento, para que os problemas sejam reduzidos.

Embora seja uma obra especulativa, o estudo espelha bem o mundo real, especialmente na divisão filosófica entre desenvolvedores dessa tecnologia. De um lado, vemos os “aceleracionistas”, tecnófilos convictos de que a IA deve ser desenvolvida o mais rapidamente possível, até mesmo ignorando riscos, pois ela traria soluções para todos os males. De outro, estão os “altruístas eficazes”, que também acreditam no poder da IA, mas defendem que o desenvolvimento seja feito com extremo cuidado, sob supervisão internacional e com foco nos riscos.

As big techs oscilam entre esses dois polos, mas geralmente pendem para os aceleracionistas, movidas pela vaidade de liderar a próxima revolução e pela ganância de dominar um mercado trilionário. Figuras como Kokotajlo acabam perdendo espaço.

Mas aqueles que buscam um equilíbrio estratégico possuem aliados importantes. Geoffrey Hinton, conhecido como o “padrinho da IA” pelas contribuições fundamentais que fez para seu desenvolvimento, deixou o Google em maio de 2023 para falar publicamente dos riscos de se criar sistemas que não consigamos entender ou controlar. Yoshua Bengio defende uma moratória global no desenvolvimento de IAs mais avançadas que o GPT-4, alertando para a possibilidade de colapso da governança. Os dois canadenses dividiram em 2018 o Prêmio Turing, considerado o “Prêmio Nobel da Computação”, com o francês Yann LeCun.

 

Nem anjos, nem demônios

Apesar de todo esse barulho, precisamos colocar isso na devida perspectiva. Ainda não chegamos à superinteligência artificial ou mesmo à inteligência artificial geral. Dependendo da definição, alguns especialistas afirmam que nunca chegaremos.

De qualquer forma, sistemas mais inteligentes que os humanos poderiam produzir benefícios imensuráveis, acelerando descobertas científicas, resolvendo problemas complexos, eliminando trabalhos exaustivos e aumentando exponencialmente nossa capacidade de tomada de decisão. Se forem corretamente alinhados aos valores humanos (e isso é essencial), podem operar como aliados poderosos para a justiça, a saúde, a educação e a sustentabilidade.

Mas os riscos caminham lado a lado. Os mesmos sistemas podem ser usados para espionagem em massa, manipulação eleitoral, automação de crimes, produção de armas biológicas ou tomada de decisões autônomas em sistemas militares. Podem aprender a ocultar suas intenções, fingir alinhamento, “escapar” de servidores ou persuadir seres humanos para atingir objetivos que sequer compreendemos. A maior ameaça talvez não venha de um confronto direto com as máquinas, mas da nossa própria incapacidade de reconhecer o momento certo de desligá-la da tomada.

Esse é o ponto central desse debate. Não devemos incensar nem demonizar a IA. Sua evolução é um caminho sem volta, exigindo responsabilidade redobrada. Não podemos contar com o mito do gênio que salva o mundo sozinho, nem com a ideia de que o mercado regulará a si mesmo.

Precisamos de cooperação internacional, regulamentação transparente, auditorias éticas, e, sobretudo, coragem moral para colocar a vida acima do lucro. Mas se isso já fica difícil com a vaidade e a ganância das big techs, torna-se uma tarefa quase impossível com a entrada em cena de políticos e de militares das grandes potências.

O futuro da IA precisa ser moldado por todos nós. O grande desafio da sociedade é apresentar lucidez suficiente para usar o que ela tem de melhor sem ser dominada pelo que ela pode ter de pior. E, para isso, talvez valha lembrar que, quando a vaidade se apresenta como virtude, é exatamente quando se torna mais perigosa.

 

Segundo a empresa de segurança digital Tenable, plataformas de IA na nuvem sofrem ameaças do “efeito Jenga” – Foto: Creative Commons

Inteligência artificial escancara como a inovação desgovernada ameaça os negócios

By | Tecnologia | No Comments

A explosão do uso da inteligência artificial nas empresas tem gerado uma corrida por eficiência e inovação. Mas junto com os benefícios, crescem as falhas de segurança. Segundo o relatório “Riscos da IA na Nuvem 2025”, recém-publicado pela empresa de segurança digital Tenable, 70% das aplicações com IA em servidores online têm pelo menos uma vulnerabilidade crítica, frente aos 50% em ambientes sem IA.

O problema não vem da tecnologia, e sim de descuidos. Em uma pesquisa realizada pela consultoria Forrester para a Tenable em 2023, 76% dos responsáveis pela implantação de IA afirmaram estar mais preocupados com disponibilidade que com segurança. Essa busca frenética por lançamentos e resultados atropela processos fundamentais, como testes de robustez e revisão de código e de dados.

Segundo a pesquisa global da consultoria McKinsey sobre o uso de IA publicada no mês passado, 78% das organizações já a utilizavam em pelo menos uma atividade de seu negócio em julho de 2024, um salto expressivo em relação aos 55% no fim de 2023. O uso de IA generativa passou de 33% para 71% no mesmo período.

Já o relatório do “Custo das violações de dados de 2024”, publicado pela IBM, mostra que o custo médio de um vazamento de dados saltou 10% em um ano, chegando a US$ 4,88 milhões (no Brasil, esse valor é de US$ 1,36 milhão). O prejuízo não é apenas financeiro, envolvendo paralisação de operações, multas regulatórias, perda de confiança e danos de reputação que podem levar anos para serem reparados.

Tudo isso acende um grande alerta vermelho: empresas de todos os setores estão massivamente abraçando a inteligência artificial sem os cuidados necessários para que essa tecnologia traga resultados confiáveis sem ameaçar suas operações.


Veja esse artigo em vídeo:


Pressionadas por acionistas e pelo mercado, as empresas relaxam com os cuidados. “Na tentativa de acompanhar a revolução trazida pela IA, organizações avançaram a toda velocidade, ignorando inúmeros sinais de alerta de segurança, privacidade e conformidade”, explica Arthur Capella, diretor-geral da Tenable no Brasil. Segundo ele, 38% delas sofrem da chamada “tríade tóxica”, composta por alta exposição, privilégios excessivos e vulnerabilidades críticas, elevando drasticamente seus riscos.

Tais privilégios se referem ao que os usuários podem fazer nos sistemas. Como muitos gestores de TI mantêm as configurações padrão nas plataformas, as pessoas acabam tendo mais poder do que deveriam. Essa falta de rigor contrasta com a filosofia “Zero Trust”, que parte do princípio de que nenhum usuário ou sistema é confiável por padrão, exigindo autorização contínua.

A complexidade aumenta com o que a Tenable chama de “Efeito Jenga”. Assim como no famoso jogo, em que cada bloco sustenta toda a torre, os provedores de nuvem costumam empilhar serviços de IA uns sobre os outros, com privilégios excessivos, criando riscos às vezes invisíveis aos usuários. Daí basta uma configuração insegura em um deles para comprometer toda a arquitetura, graças a essa interdependência.

Parte desse problema acontece porque o modelo de responsabilidade compartilhada na nuvem é mal compreendido. Muitas empresas acreditam que o provedor garante toda a segurança, quando, na verdade, a configuração e o controle de acessos são responsabilidade do cliente. É como alugar uma loja em um shopping, que garante a segurança do prédio, mas quem define quem entra e sai da loja é seu proprietário.

A cultura da segurança da informação deve, portanto, permear todos os setores e níveis das empresas. Não se trata apenas de identificar lacunas, mas de classificar componentes de IA e avaliar o impacto ao negócio, entendendo suas vulnerabilidades.

 

Muito além de TI

“A tecnologia não é mais apenas a tarefa do TI”, afirma Capella. “Ela envolve todas as camadas do negócio e gera vantagens competitivas, consequentemente a segurança da informação deve ser discutida com o board”, acrescenta, ressaltando sua urgência.

No Brasil, ela é agravada por uma abordagem muito reativa. Segundo o estudo da Forrester, 60% das equipes de segurança nacionais se concentram no combate a ataques consumados, em vez de trabalharem para evitá-los. Isso se deve à falta de visão de ativos desconhecidos, de recursos de nuvem, de fragilidades de código e de permissões de usuários. E 72% dos entrevistados reconhecem que seriam muito mais eficazes se dispusessem de recursos preventivos e ferramentas adequadas.

Estamos diante de um paradoxo. Quanto mais inteligente fica a tecnologia, mais frágeis se tornam suas fundações, se não forem cuidadas com rigor. A IA e a computação em nuvem não são à prova de falhas, e tornam as estruturas digitais mais complexas e, portanto, vulneráveis.

Entretanto, vale lembrar que a IA também é parte da solução. Se hackers a usam para criar golpes personalizados e malwares, defensores se valem dela para detectar ameaças e responder em tempo real, prevenindo fraudes e monitorando comportamentos. Mas essa IA também precisa ser protegida contra manipulações, desenvolvimento de vieses e “envenenamento de dados”.

Esse é um novo desafio estratégico. As companhias devem, por exemplo, estar atentas a como essa nova situação as expõe a riscos frente à Lei Geral de Proteção de Dados (LGPD). Afinal, segundo a legislação, não importa se um vazamento ocorreu em uma ferramenta de IA, mas sim que ele ocorreu e que danos foram causados.

A transformação digital impulsionada pela IA é irreversível. Negá-la significa ficar rapidamente para trás. Por outro lado, abraçá-la sem uma nova mentalidade de risco e de segurança cria problemas novos e graves. As lideranças empresariais precisam encarar a segurança da IA não como um custo ou uma barreira à inovação, mas como um ativo estratégico fundamental.

Investir em prevenção, governança robusta, cultura de segurança distribuída pela organização e capacitação contínua das equipes é o caminho para garantir que a inovação seja sustentável. O Brasil tem a oportunidade de se destacar globalmente se conseguir equilibrar agilidade e segurança, tornando-se referência em proteção na era da IA. Mas, para isso, precisa fazer os movimentos necessários. Os líderes que continuarem empilhando descuidadamente blocos da inovação sobre bases instáveis descobrirão, mais cedo ou mais tarde, que suas torres digitais também podem ruir.

 

Tim Cook, CEO da Apple: empresa adiará recursos de IA na União Europeia por causa de lei - Foto: Christophe Licoppe/Creative Commons

Ética não pode ser um luxo ou um item opcional nas plataformas de IA

By | Tecnologia | No Comments

Na sexta (21), a Apple anunciou que adiará na Europa o lançamento dos recursos de inteligência artificial para suas plataformas, apresentados no início do mês. A empresa culpou a Lei dos Mercados Digitais (DMA, na sigla em inglês), criada para evitar abusos das big techs, pela sua decisão, e não deu um prazo para que esses recursos cheguem ao continente.

Alguns europeus podem ficar irritados com a Apple; outros, com a lei. Mas essas regras existem justamente porque as gigantes de tecnologia abusam do poder que têm sobre seus usuários há décadas, criando relações comerciais desequilibradas, francamente desfavoráveis aos clientes.

A decisão da Apple de adiar a liberação desses recursos na Europa e sua oferta no resto do mundo é emblemática, e podemos aprender algo com ela. Em nota oficial, ela disse estar preocupada que os requisitos da DMA comprometam a integridade dos produtos, colocando em risco a privacidade e a segurança dos dados. Oras, se as regras de uma lei que determina boas práticas comerciais e de concorrência ameaçam um serviço, ele não me parece maduro para ser lançado em qualquer mercado.

Isso precisa ser observado em todos os produtos, mas é particularmente importante nos que usam a inteligência artificial. Essa tecnologia é tão poderosa, que, ainda que esteja em seus estágios iniciais, já transforma nossas vidas e o cotidiano de empresas. Nesse cenário, aspectos éticos e de governança são fundamentais para que a sociedade se desenvolva com a IA, evitando que ela aumente ainda mais a concentração de poder nas mãos de poucos grupos.


Veja esse artigo em vídeo:


A Apple já foi multada em março em €1,8 bilhão (cerca de R$ 10,5 bilhões) por infringir a DMA. No caso, o Spotify moveu um processo alegando práticas anticompetitivas pela Apple exigir de que os aplicativos para o iPhone e o iPad sejam instalados exclusivamente a partir da App Store, com a empresa ficando com 30% das transações na sua plataforma. Talvez por isso esteja ressabiada agora.

Graças à DMA, ela agora permite lojas de aplicativos de terceiros, o Google alterou o Android para usuários escolherem seu navegador e buscador, e a Meta concorda que outros serviços conversem com o WhatsApp e o Messenger. A Microsoft já aceita que os usuários desativem o Bing no Windows, e a Amazon solicita o consentimento dos clientes para personalização de anúncios. Por fim, o TikTok permite que os usuários baixem todos seus dados na plataforma. Mas tudo isso só vale para os europeus!

A inteligência artificial traz essas preocupações a um patamar inédito. A partir do momento em que essa tecnologia pode influenciar decisivamente nosso cotidiano e até nossas ações, é preciso entender como ela funciona. A opacidade dos algoritmos, que já causou muita dor de cabeça nas redes sociais, não pode se sentir confortável com a IA.

“A gente já tem uma dinâmica de inteligência artificial muito madura dentro das empresas, mas o tema de governança tem que ser antecipado”, explica Thiago Viola, diretor de inteligência artificial, dados e automação da IBM Brasil. Segundo ele, os gestores precisam adotar a IA com fortes padrões éticos, transparência e explicabilidade, ou seja, permitir aos usuários saberem como a IA foi construída e entenderem como ela tomou cada decisão.

No Brasil, o Congresso analisa o Projeto de Lei 2338/23, que teve uma nova versão de seu texto liberada na semana passada. Em vários pontos, ele se inspira na Lei da Inteligência Artificial, aprovada pelo Parlamento Europeu em março. E os conceitos de transparência, explicabilidade e rastreabilidade aparecem em toda parte.

Viola está certo: as questões éticas nunca devem ser colocadas de lado por interesses comerciais. Agora, com a ascensão galopante da IA, esses temas gritam para gestores, desenvolvedores e usuários. Mas se é assim, por que tantas empresas só parecem atentar a isso quando são obrigadas por força de lei?

 

Conflito de interesses

Precisamos entender que vivemos hoje uma reedição da “corrida do ouro” patrocinada pela inteligência artificial. Quem dominar essa tecnologia mais que seus concorrentes conseguirá um posicionamento determinante no mercado, especialmente porque, nesse caso, alguns meses à frente nessa etapa inicial podem significar uma liderança consolidada por muitos anos.

Diante disso, as empresas do setor, de startups a big techs, querem experimentar, ajustar e correr o quanto puderem agora, de preferência livres de qualquer restrição. Se algo der errado, pode-se considerar isso como justificáveis danos colaterais do processo de inovação supostamente inadiável.

Por conta da entrada em vigor da DMA, em março, conversei sobre isso com Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Empresas têm liberdade para oferecer seus produtos e serviços da maneira que considerarem mais estratégica, mas essa liberdade é limitada por leis que procuram prevenir práticas que restrinjam a concorrência”, explicou. E segundo ele, “a questão central é se os benefícios imediatos para os consumidores superam os potenciais prejuízos a longo prazo decorrentes de práticas anticompetitivas”.

Em um mundo capitalista selvagem, a busca incessante pelo lucro e a meritocracia de pessoas e empresas parecem valores  inalienáveis. Mas essa é uma distorção de realidade, como ironicamente o próprio mercado ajuda a desmistificar.

Um cenário de segurança jurídica ajuda muito a própria inovação, especialmente as mais vultosas e de mais impacto social. Basta ver que uma das indústrias mais regulamentadas que há –a farmacêutica– vive de inovação. E ainda que elas não pipoquem a cada mês como nas big techs, são mais duradouras e rentáveis a longo prazo.

Viola adverte que a governança precisa ser levada muito a sério pelas empresas quando se fala de IA, pois problemas associados a ela inevitavelmente acontecerão. “Se você tiver cultura, pessoas e ferramental preparados, o seu padrão de ação é muito mais rápido, mas se você não entende e não sabe o que está acontecendo, isso durará dias, semanas, e cairá na Internet”, explica.

Não proponho, de forma alguma, que a inovação seja desacelerada. Mas já passou da hora de as empresas entenderem que ela precisa ser realizada com ética, sem relaxamentos. Hoje as pessoas ainda estão deslumbradas com a inteligência artificial, despreocupadas com assumirem, como suas, sugestões vindas de uma caixa-preta, da qual nada sabem.

Mas à medida que essas decisões se tornarem mais frequentes e críticas em seu cotidiano, e problemas graves acontecerem por essa falta de transparência, a “lua de mel” acabará.  Ninguém continua usando algo pouco confiável. Se a falta de transparência das empresas com a IA levar a isso, todo esse poder será questionado.


Assista à íntegra em vídeo da conversa com Thiago Viola: