Monthly Archives: maio 2025

Christian Klein, CEO da SAP, durante a palestra de abertura do Sapphire 2025, evento global da empresa - Foto: reprodução

IA avança nas empresas, mas dados ruins e falta de preparo atrapalham o processo

By | Tecnologia | No Comments

Os gestores precisam que a inteligência artificial finalmente entregue os resultados prometidos. Não faltam investimentos: empresas brasileiras e globais destinam cifras consideráveis a projetos de IA, mas, na prática, o retorno ainda é tímido. E por mais que haja disposição para continuar, já passou da hora desse dinheiro começar a transformar o negócio de verdade.

O problema não é só tecnológico. Falta compreensão sobre as plataformas de IA, e a carência de profissionais qualificados persiste, especialmente em países como o Brasil. Além disso, muitas plataformas de IA não foram desenhadas para a complexidade dos processos empresariais, sendo generalistas, pouco sensíveis ao contexto e, às vezes, mais atrapalham do que ajudam.

Outro gargalo é a qualidade dos dados. Nas empresas, eles costumam ser desatualizados, fragmentados e até conflitantes entre áreas, o que dificulta análises confiáveis e limita o potencial da IA. Sem uma base sólida, qualquer promessa de inteligência artificial se esvazia rapidamente.

Nesse cenário, as novidades apresentadas na semana passada pela SAP no Sapphire, seu evento anual e maior encontro de tecnologia e negócios do mundo, realizado em Orlando (EUA), surgem como uma tentativa concreta de mudar isso. A gigante alemã apresentou uma estratégia para democratizar o uso da IA, integrando-a profundamente aos processos de negócio e, principalmente, aos dados, inclusive os não estruturados e de fontes externas, como a Internet.

As novidades são bem-vindas, mas não dispensam o olhar cuidadoso do ser humano. As decisões devem continuar nas mãos de pessoas, não apenas por uma questão ética, mas também legal. A IA pode preparar o terreno, analisar cenários e fazer recomendações, mas a palavra final precisa ser humana.


Veja esse artigo em vídeo:


A SAP apostou forte na Joule, sua assistente de IA generativa, que estará presente em toda suíte de soluções, sem implementações complexas. A partir dela, usuários poderão fazer análises de negócios em linguagem natural, inclusive em português, eliminando barreiras técnicas. Ela oferecerá soluções usando, de maneira automática, diversos agentes e aplicações, mas respeitando os limites de acesso de cada usuário.

A empresa também apresentou o Business Data Cloud, que permite integrar e harmonizar dados de múltiplas fontes, estruturados e não estruturados, mesmo de aplicações externas, preservando contexto e governança. É uma tentativa de resolver o caos informacional que assombra a maioria das organizações.

A SAP sempre se orgulhou da confiabilidade de seus sistemas, graças a um forte controle sobre a integridade dos dados. Por isso, um dos anúncios mais interessantes do Sapphire foi a integração de sua IA à Perplexity. Essa plataforma pública de IA generativa, que funciona como um buscador na Internet, passa a ser usada para trazer dados complementares e enriquecer as análises de negócio.

Ainda assim, toda IA generativa pode “alucinar”, ou seja, inventar respostas plausíveis, mas erradas. Questionei Christian Klein, CEO da SAP, sobre como lidar com esse desafio ao integrar a Perplexity. E ele foi taxativo: nos negócios, não dá para trabalhar com precisão abaixo de 100%. Por isso, as garantias do Business Data Cloud asseguram a confiabilidade das informações.

Philipp Herzig, CTO da empresa, acrescentou que, por isso, a IA faz o trabalho pesado, mas não se automatiza totalmente o processo. Além disso, a decisão final precisa ser humana. Por isso, a explicabilidade dos resultados é essencial para que as pessoas possam julgar e decidir se aceitam as recomendações da máquina.

A SAP também anunciou a integração com a plataforma Databricks, que integra e harmoniza dados externos dentro do Business Data Cloud. A parceria permite que empresas conectem seus dados sem necessidade de replicação, mantendo seu contexto e a governança. Isso facilita a consolidação de informações de múltiplas fontes, ampliando a produtividade e a confiabilidade das decisões.

 

Democratizando a IA

Com seus anúncios, a promessa da SAP é que empresas de qualquer porte possam acessar tecnologia de ponta, de forma modular e escalável. Isso é particularmente interessante, especialmente em mercados emergentes como o Brasil.

Mas a desejada democratização da IA só acontecerá se houver preparo das pessoas, e esse contraponto não pode ser ignorado. Muitos profissionais ainda não sabem aproveitar a IA, e a formação técnica deficiente no Brasil limita o aproveitamento pleno da tecnologia.

O futuro pertencerá a quem souber perguntar bem e interpretar corretamente as respostas das máquinas. E essa não é uma habilidade necessariamente de profissionais de tecnologia.

Para isso, as plataformas de inteligência artificial precisam ser transparentes no seu funcionamento, e seus resultados devem ser explicáveis e rastreáveis. Infelizmente poucos desenvolvedores de IA parecem hoje dispostos ou prontos para entregar esse nível de maturidade e de responsabilidade.

A revolução da IA nas empresas só será completa quando a tecnologia for, de fato, compreendida, confiável e, acima de tudo, útil para quem decide. A jornada é longa, mas os primeiros passos rumo a uma IA verdadeiramente empresarial parecem estar sendo dados. Resta saber se as empresas trilharão esse caminho com a sabedoria e o discernimento necessários.

 

Mais que um modismo, os “bebês reborn” derivam da manipulação algorítmica das redes sociais - Foto: Jonathan Borba/Creative Commons

Algoritmos manipulam desejos e dão a bonecas o status de seres amados

By | Tecnologia | No Comments

Nas últimas semanas, dois casos inusitados chamaram a atenção nas redes sociais e no noticiário. No primeiro, pessoas tentam, em várias cidades, marcar consultas em postos e hospitais do SUS para “filhos” que são, na verdade, “bebês reborn”. No outro, um casal em Goiânia entrou com processo judicial disputando a guarda de uma dessas bonecas ultrarrealistas da moda, após o término do relacionamento.

Esses episódios, à primeira vista anedóticos, revelam uma questão muito mais profunda sobre nosso tempo: por que objetos inanimados estão preenchendo vazios emocionais em uma sociedade cada vez mais solitária e algoritmicamente manipulada?

Por trás desse fenômeno, há algo inquietante sobre como consumimos conteúdo e formamos vínculos na era digital. A Internet nos prometeu uma liberdade de expressão sem precedentes, diminuindo o poder da mídia tradicional e democratizando as vozes. Mas essa promessa foi gradualmente transformada por uma nova forma de controle, com os algoritmos das redes sociais. Sob a aparência de personalização benéfica, esses sistemas não apenas filtram o que vemos, mas moldam sutil e eficientemente o que desejamos, pensamos e sentimos.

Enquanto acreditamos estar exercendo nossa liberdade de escolha, somos conduzidos por sistemas projetados para maximizar o tempo de tela e o consumo. A diferença fundamental é que esse novo tipo de censura não nos silencia, mas nos direciona para canais comercialmente vantajosos, mantendo a ilusão de autonomia.

Em outras palavras, falamos o que quisermos sobre tudo, mas não escolhemos sobre o que falar, e muito menos quem vai ouvir. E vemos só o que as big techs determinam.


Veja esse artigo em vídeo:


O fenômeno dos “bebês reborn” é um caso emblemático disso. O que aparenta ser uma tendência espontânea é, na verdade, amplificado por algoritmos que identificam pessoas em situações de vulnerabilidade emocional. Eles detectam comportamentos associados à dor, e entregam a promessa de alívio emocional. Agora entramos em uma nova fase, de pessoas que não compram as bonecas para lidar com a dor, mas para exibi-las nas redes sociais, em uma antropomorfização que retroalimenta o processo.

Elas surgiram na Segunda Guerra Mundial, quando mães inglesas, diante da escassez de brinquedos, passaram a consertar e aprimorar bonecas para suas filhas, dando-lhes uma “nova vida” (daí o termo “reborn”: “renascido”, em inglês). Nos anos 1990, artistas começaram a aperfeiçoar técnicas para criar bonecas cada vez mais realistas, utilizando materiais como vinil e silicone, culminando ao nível de hiper-realismo que caracteriza os “reborn” atuais, que chegam a custar R$ 10 mil.

Como o “tribunal da Internet” é implacável, os já citados comportamentos bizarros criaram uma onda de ridicularização de qualquer pessoa com um “bebê reborn”. É importante, contudo, evitar julgamentos apressados. Para muitas pessoas, o vínculo com uma dessas bonecas não é uma patologia ou uma extravagância, mas um enfrentamento legítimo diante da dor. Em contextos terapêuticos, elas têm sido usadas no auxílio a mães que perderam filhos. Para idosos com demência, o contato com as bonecas pode estimular memórias afetivas e reduzir episódios de agitação, em uma via de conexão com emoções e habilidades que pareciam perdidas.

O alerta surge quando a linha entre consciência e ilusão se desfaz. Quando a pessoa deixa de distinguir entre fantasia e realidade, quando a boneca substitui contatos sociais reais ou quando há uma recusa sistemática em lidar com traumas, isso pode indicar um quadro que necessita de intervenção. Nesses casos, o problema não é a boneca, mas o que ele revela sobre feridas emocionais não tratadas.

Sob uma perspectiva sociológica, esse fenômeno combina com a “sociedade líquida” descrita pelo filósofo polonês Zygmunt Bauman (1925-2017), caracterizada por vínculos frágeis, insegurança permanente e busca constante por satisfação sem compromisso duradouro. No conceito de “amor líquido”, Bauman descreve exatamente o paradoxo com os “reborns”, em que as pessoas querem proximidade, mas temem comprometimento, buscam vínculo, mas fogem da dor que ele pode causar.

 

Afeto sem risco

Essas bonecas permitem assim a encenação do amor sem o risco da reciprocidade, do conflito ou da frustração. É uma relação que simula o calor humano sem o custo emocional de lidar com alguém. Em uma era de relações passageiras e descartáveis, elas oferecem a ilusão de estabilidade, com um afeto “plastificado”, mas seguro.

Os “bebês reborn” não são um fenômeno isolado. Outros comportamentos contemporâneos nocivos derivam da mesma manipulação algorítmica invisível, como movimentos de saúde e estilo de vida extremados, subculturas de consumo e estética, “gurus” de produtividade e autoajuda e insegurança com a aparência e dismorfia digital (como “corpos de Instagram”). E naturalmente entram aí, com grande destaque, teorias da conspiração variadas, desinformação, extremismo e polarização política.

A sociedade já está de joelhos diante disso. Para resistir, precisamos de mais e melhores ferramentas cognitivas e sociais. A alfabetização digital crítica deve ser tratada como prioridade educacional, permitindo que as pessoas compreendam como os algoritmos moldam sua percepção. Precisamos exigir transparência das plataformas digitais, com regras claras sobre como os sistemas de recomendação funcionam. Também é fundamental o investimento em espaços comunitários reais e atraentes, principalmente para os jovens, que ofereçam alternativas à socialização mediada por telas.

As redes sociais não são inerentemente ruins, podendo também nos trazer (e nos trazem) muitos benefícios. O problema está na assimetria de poder entre quem as programa e quem as consome. Quando acreditamos estar escolhendo livremente, mas estamos sendo conduzidos para consumir aquilo que foi cuidadosamente selecionado para explorar nossas vulnerabilidades emocionais, nossa liberdade se torna uma fachada para um controle eficientíssimo e criminoso.

Como sociedade, precisamos recuperar nossa autonomia emocional e capacidade de escolha consciente. Isso significa reconhecer que, por trás de cada “recomendação personalizada”, existe uma arquitetura invisível projetada não para nos servir, mas para monetizar nossa atenção e emoções.

A verdadeira liberdade começa quando percebemos que muitos de nossos desejos são sussurrados por algoritmos, e que a resistência mais radical talvez seja simplesmente perguntar se cada um desses sentimentos é realmente nosso.

 

O deputado federal Guilherme Boulos, que pediu a suspensão do Discord, pelo uso por extremistas - Foto: Pablo Valadares/Creative Commons

Plano contra público de Lady Gaga ameaça equilíbrio entre liberdade e segurança

By | Tecnologia | No Comments

No dia 6 de maio, o deputado federal Guilherme Boulos (PSOL-SP) pediu ao Ministério Público Federal a suspensão do Discord no Brasil. A iniciativa veio depois de a Polícia Civil do Rio de Janeiro revelar que extremistas usaram a plataforma para planejar um atentado com explosivos durante o show da cantora Lady Gaga, em Copacabana, no sábado anterior. O alvo era a comunidade LGBTQIA+ presente no evento.

O deputado afirma que a plataforma tem sido instrumentalizada para crimes de ódio e violência, e pede a responsabilização das empresas de tecnologia que não colaboram com as autoridades. O Discord naturalmente respondeu que diverge da proposta, dizendo que contribui com as investigações e que possui políticas rigorosas contra o ódio. Afirmou ainda que investe em ferramentas de segurança e de moderação, e que trabalha com as autoridades para encontrar soluções, preservando a liberdade.

Essa não é a única acusação grave contra o Discord nessa temática. Entretanto, a plataforma está longe de ser a única no mundo digital a ser usada para a realização de crimes variados, que já levaram muitas pessoas à morte. Mas ela reforça a sensação de impotência de autoridades no mundo inteiro contra esses criminosos, que se valem da letargia dessas empresas na busca de soluções, por se sentirem protegidas por leis criadas há muitos anos sob a luz da liberdade que norteou o surgimento da Internet.

Criou-se assim uma eficiente armadilha para a sociedade, que corretamente quer a manutenção de sua liberdade, mas clama por segurança contra o avanço galopante das barbaridades nas redes, perpetradas por criminosos e pelas próprias empresas.

Proteger a população é uma função primordial de qualquer governo. Essa obrigação está prevista em constituições, leis e em acordos internacionais. O desafio recai em equilibrar a liberdade e proteger a sociedade de riscos e abusos, evitando tanto a censura quanto a permissividade excessiva que ameace outros direitos.


Veja esse artigo em vídeo:


O posicionamento dessas empresas segue uma lógica reativa, e não preventiva. Seu padrão é aguardar que o dano aconteça, ganhe repercussão e pressione a opinião pública. Só então movimentam-se minimamente para abafar o escândalo. Portanto, seus discursos não combinam com os seus atos insuficientes e sua ética frouxa.

Em março, a Polícia Civil de São Paulo instaurou um inquérito contra o Discord por apologia à violência digital, após a empresa ignorar um pedido emergencial para derrubar uma transmissão ao vivo de um adolescente se automutilando. Segundo a delegada Lisandréa Salvariego, do Núcleo de Observação e Análise Digital, os responsáveis pelo Discord não só deixaram de atender à solicitação, como tiveram a frieza de afirmar que não se tratava de um caso emergencial.

Essas plataformas tornaram-se terreno fértil para o aumento do extremismo e da radicalização, vitimando principalmente jovens entre 13 e 15 anos, faixa etária particularmente vulnerável pelas intensas mudanças físicas e hormonais, busca por pertencimento e imersão no ambiente digital em detrimento das relações presenciais.

As subculturas online nocivas proliferam com incrível velocidade, onde jovens suscetíveis absorvem elementos tóxicos de ideologias como misoginia, racismo, pedofilia e xenofobia, misturando-os em uma perigosa colcha de retalhos de ódio. Os casos mais extremos desembocam em tragédias reais, como mortes por “desafios online”, como o que incita jovens a inalarem desodorantes até perderem os sentidos.

O mais frustrante é que a legislação vigente acaba protegendo essas empresas. O Marco Civil da Internet, particularmente em seu artigo 19, criado sob a inspiração dos princípios de liberdade que nortearam o desenvolvimento da Grande Rede (que são válidos e devem ser protegidos) determina que as plataformas só devem remover conteúdo após notificação judicial. Esta norma, baseada no princípio de que seriam apenas “mensageiras”, transformou-se em escudo para corporações se esquivarem de assumir responsabilidades mais amplas.

 

Sofisma digital

Se em algum momento histórico esses argumentos foram válidos, hoje se tornaram anacrônicos. É absurdo esperar que o Poder Judiciário tenha capacidade para monitorar as redes e produzir notificações em tempo hábil. Depender exclusivamente desse mecanismo expõe a sociedade a riscos constantes e devastadores.

Igualmente falso é o argumento de que as plataformas são meros intermediários. Elas conhecem todo o conteúdo em suas páginas, tanto que identificam e classificam material para fins comerciais, proteção de direitos autorais e reconhecimento de imagens. Exercem controle evidente sobre ele, quando bloqueiam conteúdos que violam seus termos de uso. E, mais grave, possuem agenciamento direto sobre como, quando e para quem cada conteúdo será promovido, sempre visando seus interesses.

Elas não são, portanto, neutras. Agem como um carteiro que, ao receber uma bolsa de correspondências, decidirá quais serão entregues e quando, podendo ainda copiar cartas para entregá-las seguindo seus interesses. Ainda assim, insistem no discurso do “mensageiro inocente”, para manter o status quo que beneficia seus negócios.

Diante desta realidade perturbadora, os pais precisam manter diálogo aberto e franco com os filhos sobre os perigos digitais. Devem estabelecer limites claros de uso das redes, monitorar suas atividades online e ficar atentos a mudanças comportamentais, como isolamento ou obsessão por comunidades virtuais. As escolas, por sua vez, precisam intensificar a educação digital, promovendo pensamento crítico e reconhecimento de conteúdos problemáticos.

Faltam estudos acadêmicos sobre radicalização online, legislação específica e recursos nas agências de segurança para enfrentar adequadamente o extremismo digital. Nosso aparato institucional foi concebido para um mundo pré-internet e mostra-se tragicamente inadequado para os desafios digitais contemporâneos.

Precisamos urgentemente de um pacto global. Bloquear uma única plataforma, como o Discord, seria inócuo, pois os predadores simplesmente migrariam para outros ambientes digitais. A solução exige que as empresas de tecnologia abandonem seu discurso hipócrita de impotência e passem a utilizar todo seu impressionante arsenal tecnológico para proteger seus usuários, especialmente os mais vulneráveis.

Se essas corporações não criaram o mal que prospera em suas plataformas, hoje indubitavelmente se tornaram seus principais vetores. A sociedade não pode mais aceitar que gigantes tecnológicos, que monitoram meticulosamente nossos hábitos de consumo para otimizar lucros, aleguem incapacidade técnica para impedir crimes hediondos em suas redes. A liberdade da Internet, sonhada por seus visionários fundadores, foi sequestrada pelo lucro desenfreado. Está na hora de resgatá-la.

 

Debra Logan e Jorg Heizenberg, durante a abertura da Conferência Gartner Data & Analytics, em 28 de abril – Foto: divulgação

Dados ruins e falta de maturidade atravancam o avanço da IA

By | Tecnologia | No Comments

A inteligência artificial criou um tsunami de expectativas nos últimos anos, com a popularização das plataformas de IA generativa, como o ChatGPT. No entanto, a maioria das empresas ainda está longe de tirar proveito de tudo o que essa tecnologia pode oferecer.

Isso acontece, em grande parte, não por limitações técnicas, mas por falta de estratégia e de maturidade organizacional. Afinal, a IA será tão poderosa quanto forem a intenção, a cultura e a qualidade dos dados que a sustentarem.

Durante a Conferência Gartner Data & Analytics, que aconteceu nos dias 28 e 29 de abril, em São Paulo, especialistas internacionais discutiram os desafios e oportunidades da IA. O diagnóstico foi que a IA promete muito, mas sua entrega ainda é tímida.

O que se vê, na prática, é uma corrida por resultados rápidos, sem o amadurecimento necessário das bases de dados, da governança e principalmente da cultura organizacional. Para os especialistas, as equipes se desgastam em ciclos intermináveis de preparação de dados e expectativas insanas.

Eles afirmam que esse ritmo implacável está afetando o moral ainda mais rápido do que os recursos. Por isso, as equipes precisam superar a crescente complexidade e as dúvidas sobre sua capacidade de entrega. A tentação de simplificar demais ou buscar soluções rápidas é um caminho perigoso, que deve ser evitado a todo custo.


Veja esse artigo em vídeo:


Segundo Maryam Hassanlou, diretora-analista do Gartner, apenas metade dos modelos de IA desenvolvidos nas empresas é adotada, uma taxa considerada muito baixa. “Confiança é a principal peça que falta”, explica, e isso acontece porque essas plataformas normalmente são “caixas-pretas” que dificultam seu entendimento e incentivam um uso irresponsável dos dados, que, para piorar, têm baixa qualidade e às vezes são insuficientes.

“Especialmente em setores regulamentados, como saúde, finanças e direito, potenciais vieses e padrões legais representam outra camada de complexidade para previsões que exigem a compreensão do processo”, acrescenta. “É por isso que a explicabilidade da IA é fundamental para ganhar a confiança.”

A explosão do uso da IA gerou um paradoxo. Ela oferece uma interface extremamente simplificada, mas isso vem aumentando exponencialmente a complexidade dos resultados, exigindo novas habilidades das lideranças de tecnologia e gestores de dados. Michael Simone, diretor-analista sênior do Gartner, afirma que agora os líderes “precisam ser pensadores estratégicos e muitas vezes também diplomatas”, conectando-se aos objetivos do negócio e educando os usuários.

“Cada fornecedor adicionou IA aos seus produtos, criando uma abundância de opções com promessas semelhantes”, alerta Jorg Heizenberg, vice-presidente-analista do Gartner. Para ele, esse “AI washing” representa um risco para a confiança na tecnologia, pois promete demais e entrega de menos.

Por tudo isso, a alfabetização em dados e em IA é um fator crítico de sucesso. “Essa conversa não tem nada de conto de fadas, pois cultura é uma questão prática, de colocar a mão na massa”, assegura Heizenberg.

É preciso envolver toda a organização nisso. “Você precisa estabelecer uma cultura de aprendizagem contínua para você e suas equipes”, acrescenta Debra Logan, vice-presidente-analista do Gartner. A transformação cultural é tão importante quanto a tecnológica.

 

Não há “dado neutro”

É preciso abandonar a ilusão do “dado neutro”. Deepak Seth, diretor-analista do Gartner, foi enfático ao afirmar que “a IA é enviesada porque os dados com os quais foi construída são enviesados, porque nossa história é enviesada”. Assim, eles carregam vieses que precisam ser identificados e mitigados. Ignorar isso não é apenas antiético, mas um enorme risco.

A ética deve, aliás, guiar todas as decisões envolvendo dados e IA, desde a coleta até a aplicação. Sua governança é uma extensão da governança de TI, introduzindo três elementos: diversidade, transparência e confiança. Isso inclui o combate a vieses, a proteção da privacidade e o compromisso com a inclusão e a diversidade. A IA deve ser vista como ferramenta de amplificação humana, não de substituição.

“Podemos fazer com que a IA seja como nós, inclusive com nossas limitações, mas podemos torná-la uma inteligência complementar ou tentar criar uma superinteligência”, explica Seth. Para ele, essa última, que empolga muita gente, é algo muito distante. “O que realmente deveria estar no centro das atenções é a criação de uma inteligência complementar, que não nos substitui, que não é mais inteligente do que nós, mas que nos complementa, nos ajuda a sermos melhores naquilo que fazemos”, conclui.

A revolução da inteligência artificial está em curso, mas seu sucesso depende menos de algoritmos e mais de pessoas. A explicabilidade dos modelos, a transparência nos processos e a responsabilidade na aplicação da tecnologia não são apenas requisitos regulatórios, mas imperativos de negócio.

O futuro da IA deve ser guiado por intencionalidade, inclusão e inovação com responsabilidade. Não basta implementar tecnologia avançada: é preciso fazê-lo com propósito claro, incluindo todas as vozes na conversa e inovando de forma ética e sustentável. Só assim transformaremos o tsunami de expectativas em um oceano de realizações concretas, onde a tecnologia amplia o potencial humano em vez de substituí-lo ou diminuí-lo.