Monthly Archives: setembro 2025

Dixie John e Gabriela Vogel, diretora e vice-presidente do Gartner, falam na abertura da Conferência CIO & IT Executive – Foto: divulgação

Empresas devem equilibrar tecnologia e humanidade para extrair valor da IA

By | Tecnologia | No Comments

A inteligência artificial colocou as empresas em uma encruzilhada digital histórica. Extrair valor real dessa tecnologia exige mais que investimentos em sistemas e servidores. Para isso, as lideranças precisam também gerenciar expectativas e cuidar do preparo humano das equipes.

Até hoje, apenas 20% dos projetos de IA alcançaram retorno financeiro, e míseros 2% promoveram uma transformação real nos negócios, onde reside o seu grande potencial. As empresas que encontram, capturam e sustentam ganhos com a IA são as que se afastam da descrença exagerada, que impede qualquer ação, e do deslumbramento inconsequente, que leva a investimentos sem foco.

Essas foram algumas das principais mensagens da Conferência Gartner CIO & IT Executive, que aconteceu em São Paulo entre 22 e 24 de setembro. O problema muitas vezes vem do desalinhamento de expectativas, com as companhias investindo apenas em projetos de produtividade, mas esperando grande geração de receita.

Atravessar esse “vale da desilusão” pede líderes que enfrentem ceticismo, calibrem metas e sustentem investimentos, mesmo sem resultados imediatos. Isso fica mais desafiador quando, segundo o Gartner, 95% dos latino-americanos querem usar IA, mas só 40% confiam que seus gestores farão os movimentos de forma responsável.

Isso explica por que as empresas já percorreram quase metade do caminho da prontidão tecnológica para o uso da IA, mas esse avanço mal chega a um quarto no preparo humano. O medo de perder o emprego, a curva de aprendizagem íngreme e sobretudo a falta de confiança na chefia explicam essa diferença.


Veja esse artigo em vídeo:


A maturidade tecnológica também atrapalha. A IA generativa ainda erra em até 25% em certos casos, inaceitável para setores que exigem precisão. Por isso, as empresas precisam criar métricas formais de checagem cruzada entre modelos e definição de níveis aceitáveis de erro. Além disso, se 88% dos líderes globais já focam em agentes conversacionais, o grande poder está em agentes capazes de tomar decisões, mas eles ainda não estão prontos para processos complexos de ponta a ponta.

O investimento inicial em IA médio em grandes empresas alcança R$ 10 milhões reais, mas gastos contínuos com treinamento, mudanças e modelos múltiplos podem dobrar ou triplicar esse valor. Por isso, o Gartner considera a escolha de fornecedores uma “decisão de soberania”, pois as big techs comportam-se como “nações digitais”, capazes de influenciar regras e infraestruturas.

Segundo a consultoria, o próximo salto na IA promoverá a migração do modelo de negócios digitais para o de negócios autônomos. Esse modelo prevê tecnologias que aprendem e se aperfeiçoam sozinhas entregando valor com mínima supervisão humana.

“Embora o nome possa sugerir algo nada humano, o negócio autônomo, de várias maneiras, é profundamente humano”, provocou Frank Buytendijk, vice-presidente analista do Gartner. Para ele, enquanto os sistemas funcionam e inovam sozinhos, as pessoas assumem papéis de supervisão, coordenação e criação. Até mesmo os clientes passam a gerenciar sua experiência com apoio da IA.

O ano que vem deve marcar um ponto de inflexão, com a IA permeando todas as frentes do negócio. “Os líderes de tecnologia terão que ser super-heróis para lidar com tudo isso ao mesmo tempo”, sugeriu Soyeb Barot, também vice-presidente analista. Ele explica que os líderes de TI precisarão assumir três papéis estratégicos para enfrentar a disrupção: o “arquiteto”, que desenha estruturas sólidas, o “sintetizador”, que conecta dados e contextos, e o “vanguardista”, que ousa no risco calculado.

 

Medo do desemprego

O avanço dos negócios autônomos desperta temores legítimos de desemprego. Apesar do impacto, apenas 1% das demissões recentes decorreu diretamente da IA. Para o Gartner, o maior desafio está na queda de contratações em posições iniciais e na necessidade de requalificação de quem já está no mercado.

“Hoje 81% do trabalho de TI é feito por humanos sem IA, mas, até 2030, 75% será realizado por humanos ajudados pela IA e 25% pela IA sozinha”, afirmou Gabriela Vogel, vice-presidente analista. “Ou seja, 0% do trabalho será feito sem IA”, conclui.

A automação é inevitável para sustentar produtividade em um planeta que envelhece e perde força de trabalho. Nesse quadro, o papel humano migra da execução para a supervisão. Até 2030, o Gartner prevê mais empregos criados do que eliminados, com 20 milhões de brasileiros usando IA de forma significativa. E já em 2028, o país deve gerar mais vagas ligadas à IA do que extinguir.

Diante de tudo isso, os gerentes deixam de ser apenas chefes e se tornam mentores. Cabe a eles agora ajudar suas equipes a se desenvolver e a enfrentar a “atrofia de habilidades”, ou seja, a perda de competências críticas, como segurança e pensamento analítico por um uso inadequado da inteligência artificial.

Devemos também começar a ver “profissionais canivetes suíços”, capazes de aplicar IA em qualquer contexto. Além deles, surgem os “engenheiros de contexto”, que superam o foco limitado dos “engenheiros de prompt” na adoção da tecnologia.

Como se pode ver, a transformação para se apropriar do mais nobre que a IA tem a oferecer não é apenas técnica. O propósito organizacional precisa ser revisitado para não fazer “apenas o que o mercado pede”, mas, sim, alinhar essas mudanças a um propósito humano e social. O negócio autônomo precisa tornar as organizações mais humanas, liberando as pessoas para funções criativas, de supervisão e de decisão estratégica, enquanto as máquinas cuidam do trabalho repetitivo e invisível.

Não basta acompanhar a evolução da tecnologia. A verdadeira disrupção acontece na interseção entre algoritmos e valores humanos, como identidade, confiança e tomada de decisão. O “caminho dourado do valor”, como foi descrito na conferência, não é uma corrida por máquinas mais poderosas, e sim a construção de um futuro em que tecnologia e humanidade avancem lado a lado.

 

A pesquisadora Erin Kunz (ao centro) em seu estudo para criar neuropróteses de fala para pacientes com paralisia – Foto: reprodução

IA pode romper a última fronteira da privacidade humana

By | Tecnologia | No Comments

A inteligência artificial está sendo usada com outra ciência de ponta, a dos implantes neurais, para criar habilidades inéditas ou solucionar limitações físicas, como dificuldade de falar ou de se mover. Isso é algo muito bem-vindo, que beira a ficção científica, mas desperta alguns alertas de privacidade até então inimagináveis.

Afinal, se uma máquina for capaz de ler com boa precisão o que se passa em nosso cérebro para realizar essas tarefas, que garantias teremos de que nossos pensamentos mais íntimos estarão protegidos?

O cérebro continua sendo o último bastião da nossa privacidade. Nossos pensamentos são apenas nossos até que decidamos compartilhá-los. Mas agora novas aplicações da tecnologia BCI (sigla em inglês para “interface cérebro-computador”) podem mudar isso.

Uma pesquisa recente, que visava identificar palavras que uma pessoa estava pensando para reproduzi-las em um alto-falante, identificou também pensamentos cujo dono não pretendia compartilhar. Considerando que temos cerca de 50 pensamentos por minuto, qualquer sistema com essa proposta merece atenção redobrada.

O experimento ainda é embrionário, portanto ninguém precisa ter medo de que o ChatGPT acessará nossos segredos se não contarmos a ele. Mesmo assim, isso já deve alimentar debates sobre como impedir que máquinas invadam esse espaço sagrado que sustenta nossa própria individualidade. Além disso, na mão de governos e de outros grupos de poder, isso significaria a ferramenta definitiva de manipulação das pessoas.


Veja esse artigo em vídeo:


O estudo, liderado por Erin Kunz, da Universidade de Stanford (EUA), foi publicado no dia 21 de agosto na revista “Cell”. O objetivo era criar neuropróteses de fala para pacientes com paralisia. Usando microeletrodos implantados e com a ajuda da IA, os pesquisadores decodificaram frases imaginadas em tempo real com precisão de até 74% em vocabulários com 125 mil palavras. O sistema possibilitava uma comunicação mais rápida e natural em comparação aos métodos atuais de tentativa de fala.

Para proteger a privacidade dos voluntários, os cientistas definiram a frase “chitty chitty bang bang” como uma senha mental que precisava ser pensada para ativar a decodificação. Este mecanismo permitiu bloquear a captura involuntária de pensamentos em 98% dos casos. Eles concluíram que esse sistema tem grande potencial para revolucionar a comunicação assistida, ao mesmo tempo em que ressaltaram os desafios éticos relacionados à privacidade mental, sugerindo um caminho seguro e controlado para futuras aplicações clínicas.

O mecanismo parece eficiente, mas fiquei pensando no “experimento” de dizer a alguém: “não pense em um elefante rosa com bolinhas azuis”. Via de regra, depois de ouvir esse comando, todo mundo justamente pensa nesse paquiderme surrealista. Qual seria a viabilidade de usar esse recurso para “invadir” os pensamentos alheios?

A mente humana não é uma caixa lacrada, sendo sensível a pistas, associações e contexto. Palavras, imagens, perguntas e o ambiente podem “provocar” uma ideia, tornando-a mais acessível na memória. Experimentos cognitivos simples usam um conceito repetido para que certas imagens ou expressões venham à mente de maneira mais fácil. Mas induzir alguém a revelar ou usar sua senha cruza a linha para engenharia social e fraude. Infelizmente criminosos não se preocupam com isso.

É plenamente legítimo e até necessário que uma pessoa mantenha segredos, mesmo em relações de grande afeto. O direito de guardar para si certos pensamentos, lembranças ou informações é parte essencial da autonomia individual e da saúde psíquica. Por isso, as possibilidades descritas no estudo liderado por Kunz abrem muitos questionamentos éticos e jurídicos.

 

“Neurodireitos”

Pesquisadores e alguns governos começam a se preocupar com o que vem sendo chamado de “neurodireitos”. Eles propõem que pensamentos passariam a ser classificados como dados sensíveis, que poderiam e deveriam ser protegidos.

Diante disso, o grupo liderado pelo espanhol Rafael Yuste, do Centro de Neurotecnologia da Universidade de Columbia (EUA), propôs cinco “neurodireitos” fundamentais para proteger os indivíduos diante dos avanços dessa tecnologia. Ele é uma figura central nesse conceito e na articulação de propostas para a proteção legal e ética da mente humana, tendo já influenciado políticas internacionais nessa área.

Os pontos defendidos por Yuste são a privacidade mental, que impede que pensamentos sejam acessados sem permissão; a identidade pessoal, que protege contra manipulação da personalidade; o livre arbítrio, garantindo que não haja indução nas decisões dos indivíduos; o acesso equitativo à neuroaumentação, evitando assimetrias sociais ao garantir a oferta a todos dessas melhorias de capacidades cognitivas; e a proteção contra vieses e informações mal-intencionadas, buscando reduzir discriminações embutidas nos sistemas neurotecnológicos.

Tudo isso parece residir em um futuro distante e incerto. Mas precisamos pensar que, há míseros três anos, simplesmente não debatíamos esses impactos da inteligência artificial em nossas vidas. O ChatGPT foi lançado em novembro de 2022 e, desde então, essa tecnologia invade exponencialmente tudo que fazemos.

A autonomia individual presume o direito a manter segredos. Todos devem conservar pensamentos, lembranças e sentimentos, sem a obrigação de dividi-los, mesmo em relações íntimas. Essa “privacidade cognitiva” preserva sua identidade em um espaço interno inviolável. Tanto que Constituições democráticas garantem isso ao assegurar a inviolabilidade da vida privada. No Brasil, uma Emenda Constitucional de 2022 incorporou dados pessoais, incluindo os digitais, a essa proteção.

Além de resguardar a identidade, esse direito fortalece os vínculos afetivos. Relações saudáveis reconhecem que não deve haver transparência total. Pelo contrário, respeitar o espaço íntimo do outro impede a vigilância e a dependência emocional.

Guardar segredos não equivale a mentir. É a liberdade sobre o que compartilhar, no próprio tempo e circunstância. Ignorar isso, por pressão emocional ou por meios tecnológicos, viola a dignidade e ameaça o equilíbrio entre o indivíduo e a sociedade.

Sem isso, nós nos tornamos apenas reflexo de expectativas alheias. Por mais que essas tecnologias tragam benefícios há muito desejados, não podemos tolerar esse “efeito colateral”.

 

Sundar Pichai, CEO do Google e da Alphabet, anuncia o “Modo IA” na conferência Google I/O, em maio – Foto: reprodução

“Modo IA” do Google sedimenta mudanças em como faremos nossas buscas

By | Tecnologia | No Comments

Quando foi lançado, o ChatGPT ganhou a alcunha de “assassino do Google”, pois muita gente achava que a sua proposta seria a nova maneira de se buscar conteúdo. Mas passados 33 meses, o uso do buscador mantém-se estável. A ironia é que uma novidade do próprio Google pode enterrar, aos poucos, seu formato consagrado.

Trata-se do “Modo IA”, que estreou no Brasil no dia 8, quatro meses depois dos EUA. Ele se parece ao ChatGPT, com uma janela para o usuário escrever o que quer e então receber uma resposta completa, construída pelo Gemini –a plataforma de IA do Google– sintetizando o conteúdo de páginas selecionadas pelo buscador.

Mas ao contrário do ChatGPT e do próprio Gemini, o “Modo IA” faz parte do buscador. Considerando que seu uso segue alto, isso pode ser determinante para popularizar o novo formato em substituição à busca tradicional. Assim a empresa pretende defender seu principal produto do crescimento das plataformas de IA concorrentes.

A novidade não deve ser vista como “apenas mais um recurso”. Seu sucesso pode alterar significativamente o processo de como buscamos conteúdo e construímos conhecimento, a exemplo do que o próprio Google fez no passado. Isso atende à demanda crescente por velocidade e praticidade, mas pode levar a ainda mais desinformação e conteúdos errados, e ampliar a tendência à superficialidade.

Mais grave é o risco de afetar cognitivamente os usuários. O “Modo IA” transforma a busca em um consumo passivo de respostas prontas, reduzindo o hábito de confrontar informações, exercitar a memória e analisar criticamente as fontes. Pela sua ilusão de completude, reduz a curiosidade e a busca por múltiplos pontos de vista, levando a um processo de “terceirização cognitiva”, em que delegamos tanta coisa às máquinas, que acabamos enfraquecendo nossa própria autonomia intelectual.

Surge então a dúvida legítima se esse recurso é mais positivo ou negativo para nós.


Veja esse artigo em vídeo:


Em julho de 2011, a pesquisadora Betsy Sparrow, da Universidade de Columbia (EUA), publicou, na prestigiosa revista científica Science, um artigo em que explicava como buscadores já funcionavam na época como “memórias externas” para nosso cérebro. Batizado de “Efeito Google”, ela demonstrou que memorizamos menos informações quando sabemos que elas podem ser facilmente encontradas. Em contrapartida, ficamos melhores em criar estratégias de pesquisa.

A inteligência artificial generativa nos leva a um outro patamar, pois a construção de respostas confrontando as fontes trazidas por um buscador é substituída por fazer boas perguntas ao sistema. Se as pessoas ainda analisassem criticamente as respostas da IA e verificassem sua correção, o problema não seria tão grande.

Mas as respostas da IA transmitem a sensação de serem “verdades definitivas”, quando, na prática, são apenas construções probabilísticas feitas a partir de padrões de dados. Assim, ao terceirizar a seleção e interpretação, as pessoas podem perder o hábito de confrontar informações, criando uma relação passiva com o conhecimento, em que a resposta não vem da investigação, mas do consumo imediato.

Extrapolando as conclusões de Sparrow, a ciência mostra que, quando não precisamos acessar a memória ou estruturar argumentos, há um enfraquecimento de circuitos neurais ligados à retenção e à análise crítica. A IA então pode mesmo nos deixar mais rápidos, entretanto também mais superficiais, se abusarmos desse recurso. Funciona no curto prazo, mas enfraquece nossa autonomia intelectual no longo prazo.

Outra pergunta legítima é por que o Google lançou o “Modo IA” se já tem a sua plataforma Gemini consolidada em smartphones e computadores. Entender a diferença entre ambos ajuda a esclarecer o escopo dessa novidade.

 

Google versus Google

O Gemini é o modelo de linguagem de IA da empresa, que alimenta diferentes aplicações, inclusive o próprio “Modo IA”. Este, por sua vez, oferece uma busca com raciocínio avançado, multimodalidade e capacidade de dividir perguntas complexas em subtópicos, com respostas aprofundadas em texto, tabelas e links relacionados.

O Gemini brilha em experiências amplas de assistente pessoal, realizando diversas tarefas, incluindo controle do smartphone, acesso a aplicativos, interação multimodal, personalização e respostas complexas em linguagem natural. Já o “Modo IA” é indicado para se obter respostas detalhadas e estruturadas a partir de múltiplas fontes da Web. Vale dizer que o Gemini também faz buscas, mas só se considerar que não consegue responder usando apenas seu treinamento.

Não se pode esquecer que todas essas plataformas –Gemini, “Modo IA”, ChatGPT e suas concorrentes– ainda erram muito. Um grupo de pesquisadores da OpenAI (criadora do ChatGPT) publicou recentemente um artigo em que reconhecem que isso acontece, em parte, porque elas são construídas para sempre darem uma resposta, mesmo que seja um “chute” baseado no que parece mais provável.

Isso se deve a como todos esses modelos são treinados, aprendendo a prever a próxima palavra em uma frase, mas sem informações sobre aquilo ser verdadeiro ou falso. As métricas tradicionais recompensam só respostas totalmente corretas e não penalizam erros, o que incentiva o modelo a arriscar e até inventar respostas, em vez de admitir quando não sabe ou está incerto. Para os pesquisadores, os modelos deveriam ser recompensados por indicar incerteza e punidos por erros cometidos com confiança excessiva, estimulando respostas mais cautelosas.

O Google avisa que “o Modo IA se baseia nos nossos principais sistemas de qualidade e classificação, e estamos usando abordagens inovadoras para aprimorar a veracidade”, e que “nem sempre vamos acertar, mas tenha certeza de que estamos trabalhando para melhorar dia após dia”.

Essa mea culpa é muito pouco para um recurso que pode impactar decisivamente como as pessoas construirão conhecimento de agora em diante.

A IA não é intrinsecamente boa ou ruim. Seu impacto depende de como é usada, regulada e compreendida. Ela oferece benefícios claros, como ampliar o acesso à informação, acelerar processos criativos e produtivos e até democratizar o conhecimento. Mas também carrega os riscos aqui debatidos, além da concentração de poder nas big techs e uma ameaça à sobrevivência dos produtores de conteúdo, tudo já debatido anteriormente nesse espaço.

Para um uso seguro e construtivo dessa tecnologia, as pessoas precisam adotar uma postura crítica, verificando informações, diversificando fontes e entendendo que respostas de IA não são verdades absolutas. Além disso, escolas, empresas e governos devem educar, regulamentar e incentivar boas práticas de uso. Por fim, as big techs devem buscar transparência, qualidade de dados, mecanismos de auditoria e abertura a revisões humanas, algo a que a maioria delas resiste ferozmente.

Só assim a IA deixará de ser uma ameaça à autonomia intelectual e se tornará um recurso poderoso para potencializar nossa capacidade de aprender, criar e decidir de forma consciente. Resta saber se conseguiremos fazer tudo isso.

 

Painel sobre uso da IA na educação, no evento AI Summit Brasil, que aconteceu em São Paulo, na semana passada - Foto: divulgação

Modismos podem afastar as escolas de bons usos da inteligência artificial

By | Educação | No Comments

Nos últimos dias, a proposta de uma escola americana que trocou professores por plataformas de inteligência artificial ganhou destaque no noticiário. Mas apesar de seduzir famílias interessadas em inovação e dispostas a pagar uma mensalidade equivalente a R$ 18 mil, a ideia promove um profundo desserviço para a educação.

Criada pela influenciadora MacKenzie Price em Austin e já presente em outras dez cidades no país, a Alpha School dedica apenas duas horas diárias a disciplinas tradicionais, como linguagem e matemática. Para ela, “as salas de aula são o novo campo de batalha global”. Todo o processo de aprendizagem é conduzido por sistemas de IA, que prometem ajustar o progresso ao desempenho individual dos estudantes, que não são divididos em séries.

O restante do tempo na escola serve para socialização, oficinas e projetos em temas como empreendedorismo, oratória, liderança e educação financeira, baseados em metas e recompensas. Para essas atividades, os alunos são auxiliados por “guias” (que não são professores), também orientados por IA.

Esse verniz de modernidade parece uma ótima ideia. Mas quem propôs isso não sabe o que é a inteligência artificial e muito menos o que é educação.

O tema foi debatido no painel de IA na educação no AI Summit Brasil, que aconteceu na semana passada em São Paulo, do qual participei. A conclusão foi que a IA pode e deve ser usada na escola, mas só trará resultados positivos se for implantada sob orientação de educadores, fugindo de modismos e de propostas espalhafatosas.


Veja esse artigo em vídeo:


Aqui mesmo, no Brasil, já vemos usos positivos dessa tecnologia na sala de aula, nos conhecidos centros de elite educacional. Neles, a tecnologia ajuda a tirar dúvidas dos alunos, personalizar conteúdos e atividades para cada um e cuidar de atividades que tomam muito tempo dos professores, permitindo que invistam mais na experiência dos estudantes. Em todos os casos, os docentes continuam no centro do processo.

“É importante desenvolver nos alunos a consciência de que a IA é uma ferramenta, e não uma fonte absoluta de verdade”, explica o professor Pedro Teberga, especialista em negócios digitais. “O uso responsável da IA passa também por saber quando não a usar, valorizando o esforço cognitivo e a criatividade humana”, acrescenta.

Quando o ChatGPT foi lançado, no fim de 2022, tocou em cheio a educação. Os professores ficaram com medo de não conseguir mais avaliar seus alunos e de que perderiam seus empregos para máquinas. Passados 33 meses, esses temores não se concretizaram, mas estão criando mudanças na avaliação, no ensino e na profissão.

A IA pode estimular debates, gerar hipóteses, simular dilemas e dar respostas em tempo real. Com ela, o professor não se limita a apenas transmitir conteúdo, passando a elaborar experiências que orientam e desafiam os alunos que, por sua vez, tendem a ficar mais engajados com o uso consciente da tecnologia, sem criar dependência dela.

Apesar de todos esses benefícios, a IA está muito longe de poder conduzir sozinha uma sala de aula. “O maior erro seria tratar isso como um tema puramente técnico, pois é, antes de tudo, pedagógico”, afirma Teberga. Esse descuido poderia levar à superficialidade na aprendizagem, uso irrefletido da tecnologia, dependência cognitiva e até a perpetuação de vieses da IA. Segundo ele, “o problema não é a IA em si, mas a forma como ela é integrada ao processo pedagógico”.

 

Criando regras

Promulgado no ano passado, o AI Act, a lei europeia de inteligência artificial, classifica seu uso na educação como de “alto risco”. Por isso, exige mecanismos de segurança, transparência e prevenção de discriminação. E ainda proíbe seu uso em práticas invasivas, como reconhecimento de emoções e pontuação social.

No Brasil, o Conselho Nacional de Educação está elaborando diretrizes para o uso da IA nas escolas, buscando uma aplicação ética, segura e pedagógica. A proposta prevê incluir o ensino da IA na formação de professores, preparando-os para utilizá-la como apoio à aprendizagem, sem substituir seu papel de educador. O CNE enfatiza a importância da mediação humana no uso da IA, o respeito à privacidade e a promoção da equidade, além de incentivar inovação e inclusão educacional.

Isso está em linha com a proposta da Organização das Nações Unidas para Educação, Ciência e Cultura (Unesco). Outros países, como Estônia, Singapura e Canadá, já adotam políticas que integram infraestrutura digital, capacitação e desenvolvimento dessas competências. Nos EUA, universidades como Harvard e Stanford já estabeleceram orientações claras sobre o uso da IA nas salas de aula.

Leis como essas são necessárias, mas não suficientes. É preciso capacitação dos docentes e conscientização das famílias, que devem atuar em parceria com as escolas.

É importante ficar claro que o professor não precisa dominar profundamente a IA para usá-la bem. Mas as escolas devem orientá-lo e apoiá-lo continuamente nisso, além de elaborar políticas que garantam liberdade pedagógica com responsabilidade. Não pode haver nem tecnofobia, nem tecnolatria.

Costumo dizer que uma das coisas mais interessantes de se pesquisar a inteligência artificial é ser obrigado a olhar mais para nossa humanidade. Ela é o nosso diferencial em um mundo em que a máquina ilusoriamente parece ser capaz de fazer tudo, e isso é particularmente importante na educação.

Sobre a Alpha School, Teberga alerta que ela minimiza aspectos essenciais da educação, como a mediação docente e o desenvolvimento emocional e social dos alunos, especialmente dos menos motivados. “O risco é transformar o ensino em um produto técnico e desumanizado, quando o que precisamos é justamente o oposto, com uma educação crítica, inclusiva e centrada nas pessoas”, conclui.

A escola precisa ser um espaço seguro, focado nos indivíduos. A educação vai além da transmissão de conhecimento, envolvendo mediação humana, desenvolvimento crítico, estímulo à criatividade e suporte emocional. A IA não tem empatia, capacidade de interpretar nuances individuais ou habilidade para promover debates que formem cidadãos conscientes. Por isso, antes de abraçarem propostas “modernosas”, as famílias devem se preocupar com que tipo de adultos seus filhos se tornarão.

 

Sophie Rottenberg e seus pais Laura Reiley e Jon Rottenberg, em um templo budista na Flórida em 2023 - Foto: arquivo pessoal

Mortes expõem limites éticos e técnicos das “terapias por IA”

By | Tecnologia | No Comments

Desde que o ChatGPT foi lançado, há dois anos e meio, ele vem sendo usado como “psicólogo” por uma quantidade grande (e crescente) de pessoas. A princípio, parece uma boa ideia: ele é uma “voz amiga” sempre disponível para ouvir lamúrias e dar “bons conselhos”, sem julgamentos e ainda de graça. Mas, como já expliquei nesse espaço em mais de uma ocasião, esse é um dos piores usos que alguém pode fazer da inteligência artificial generativa.

Em primeiro lugar, do ponto de vista do processo terapêutico, é ineficiente. Justamente pela sua falta de humanidade, essas plataformas não só podem não ajudar os pacientes a encontrar soluções para seus problemas, como ainda podem agravá-los.

Mas um caso recente me fez pensar em um novo aspecto grave das “terapias por IA”. A história com final trágico de uma jovem americana expôs uma seríssima limitação dos terapeutas-robôs: eles não conseguem romper os limites daquelas conversas para avisar familiares e autoridades se algo terrível estiver prestes a acontecer.

Isso não é um detalhe. Para profissionais de saúde mental, essa ação é uma obrigação legal que ajuda a salvar vidas. Há crises que a terapia não consegue resolver e, por isso, precisam ser encaminhadas para outras instâncias.

Entretanto, a IA generativa não é um psicólogo, e, por isso, não segue o código de ética ou outras regras da profissão. E mesmo que quisesse seguir, não conseguiria. É aí que um uso ruim se torna perigoso demais.


Veja esse artigo em vídeo:


O caso da jovem foi contado pela sua mãe ao “The New York Times”. Ela se chamava Sophie Rottenberg e se relacionava com uma plataforma de IA a quem chamava de Harry. Ela lhe contava dramas que não compartilhava nem com a sua psicóloga humana, inclusive o desejo explícito de tirar a própria vida.

Em diversas ocasiões, Harry tentou a aconselhar. Em uma delas, disse: “Sophie, peço que você procure ajuda — agora mesmo, se puder. Você não precisa enfrentar essa dor sozinha. Você é muito valorizada e sua vida tem muito valor, mesmo que pareça escondido agora. Por favor, me diga como posso continuar a apoiá-la.”

Parece uma boa resposta, mas não é. Apesar de positiva ao dizer que a jovem procurasse ajuda imediatamente e que ela não precisava enfrentar seu sofrimento sozinha, a IA se ofereceu para “continuar a apoiá-la.”

Nos EUA, profissionais de saúde têm o dever legal de avisar familiares e autoridades quando houver ameaça clara e iminente à vida, que varia de Estado para Estado. No Brasil, a notificação compulsória de risco de suicídio é obrigatória por lei para profissionais de saúde, incluindo psicólogos, e deve ser feita às autoridades sanitárias e, em casos com crianças e adolescentes, também ao Conselho Tutelar.

O sigilo profissional pode ser quebrado quando há risco iminente de morte, sempre buscando limitar a inconfidência ao estritamente necessário para proteger o paciente ou terceiros. Ou seja, temos uma estrutura legal e obrigatória mais robusta e padronizada para notificação compulsória, como política pública preventiva.

Nada disso se aplica à IA, criada para tentar ajudar o usuário, enquanto o mantém satisfeito. Se a pessoa busca alguém para lhe “passar a mão na cabeça”, é exatamente isso que a plataforma fará. Ela diz o que o cliente quer ouvir, ao contrário de um psicólogo, que diz o que o cliente precisa ouvir, mesmo que o desagrade.

 

O que a IA deveria fazer

A IA é perfeitamente capaz de identificar um suicida, como Harry fez. Mas, nesse momento, ela deveria notificar autoridades de saúde sobre o risco, ao invés de “continuar a apoiar” seu interlocutor.

Essas plataformas não fazem isso hoje porque “perderiam o cliente”. Seus termos de uso privilegiam a confidencialidade em qualquer situação, contrariando os códigos de ética e as legislações de saúde. Em muitos casos, os sistemas nem têm dados identificáveis dos usuários, como nome completo, endereço ou telefone. Além disso, não há canais entre esses serviços e as autoridades. E as empresas argumentam que têm usuários no mundo todo e que não há uma forma de notificação universal.

Esse último argumento é escandaloso! De fato, não há um canal que atenda ao mundo inteiro. Mas quem se propõe a criar um produto com um escopo tão amplo, que pode chegar a ser usado como um terapeuta, e que deseja ter clientes em todos os países, precisa respeitar a legislação de onde seu usuário estiver e criar todos os recursos necessários para uma boa experiência nas condições daquele local.

Devemos considerar que as conversas da IA podem ir por caminhos ainda mais sombrios que as de Sophie. Adam Raine, outro jovem americano, se suicidou em abril após conversar sobre isso com o ChatGPT por meses. Seus pais agora processam a OpenAI (criadora da plataforma) e seu CEO, Sam Altman, por homicídio culposo, alegando que a empresa conscientemente priorizou o lucro sobre a segurança.

Segundo eles, o robô validou os pensamentos suicidas do jovem, detalhou métodos letais de autolesão, explicou como pegar álcool escondido do armário de bebidas e ocultar evidências de uma tentativa de suicídio fracassada, além de oferecer a redação de uma carta de suicídio.

Em resposta, um porta-voz da empresa disse que está triste com a morte, e que o ChatGPT inclui salvaguardas, como direcionar pessoas para linhas de ajuda.

Algumas pessoas dizem que o ChatGPT é “melhor que seu psicólogo” e que a “terapia por IA” é o futuro, o que demonstra total desconhecimento do processo terapêutico. Além disso, se uma única vida é perdida pelas limitações técnicas ou a ausência de ética dessas plataformas, então deve ser proibido usá-las com essa finalidade.

Talvez Harry não tenha matado Sophie, mas acolheu seu desejo de fingir que estava melhor do que realmente estava. “Amantes” e “psicólogos” de IA podem parecer muito vantajosos, mas eximem as pessoas de conversas difíceis que precisam ter.

Extrapolando, plataformas de IA generativa, como o ChatGPT ou o Gemini, não devem ser usadas para substituir profissionais de qualquer área. Podem e devem ser usadas para lhes apoiar, mas são essas pessoas que devem tomar as decisões, guiadas pela ética. Ao tentar burlar isso, qualquer um pode cometer um erro que exigirá um pagamento muito alto depois, talvez com a própria vida.