Monthly Archives: fevereiro 2025

A fábula atribuída a Esopo pode ajudar em uma implantação consciente dessa tecnologia – Foto: Paulo Silvestre/Creative Commons

Não mate a galinha dos ovos de ouro do seu negócio com a IA

By | Tecnologia | No Comments

A fábula atribuída a Esopo é uma velha conhecida! Era uma vez um fazendeiro que possuía uma galinha que, todos os dias, botava um ovo de ouro. Com isso, ele ficou muito rico, mas, com o tempo, sucumbiu à ganância. E assim pensou que, se a galinha botava ovos de ouro, dentro dela deveria haver uma grande quantidade do metal. Decidiu matá-la para pegar todo o ouro de uma vez, mas descobriu, ao cortá-la, que, por dentro, era como qualquer outra galinha.

A história demonstra os perigos de se querer resultados imediatos sem pensar nas consequências. E há tempos a relaciono a usos inadequados da inteligência artificial generativa, que deslumbra muitos gestores. Eles a veem como a tecnologia dos “ovos de ouro”: inovação, produtividade e redução de custos! Mas ao usá-la sem planejamento, ética ou compreensão, esses gestores podem “matar sua galinha”.

Ao implantar a IA sem considerar os impactos sociais, regulatórios ou organizacionais, como a perda de empregos, vieses algorítmicos ou uso irresponsável de dados, eles minam a confiança dos clientes, pioram a experiência deles com a marca, prejudicam a sua reputação e até enfrentam consequências legais.

Pensei nisso na semana passada em uma conversa com Tiago Paiva, fundador e CEO da Talkdesk, quando disse que “há muitas empresas que não conseguem perceber que a experiência do cliente é das coisas mais importantes que há.” E ele fala com propriedade, pois seus produtos automatizam o atendimento a clientes com um bom uso da IA, em uma missão declarada de “livrar o mundo da experiência do cliente ruim”.

De fato, o atendimento é uma das áreas mais impactadas pela IA. Usada corretamente, essa tecnologia pode mesmo levar a experiência do cliente a um novo patamar. Porém, muitos gestores ainda “matam suas galinhas” ao usá-la irresponsavelmente para inflar resultados.


Veja esse artigo em vídeo:


É curioso que vivemos um “paradoxo da automação”. Ele indica que clientes esperam que empresas ofereçam suporte automatizado eficiente, mas as que automatizam demais seu atendimento afugentam as pessoas. O segredo é encontrar um equilíbrio, com a IA resolvendo problemas simples, ficando os casos sensíveis para os humanos.

“O problema é que, no passado, com a chegada dos bots, foi criada uma expectativa maior que a capacidade da entrega, e isso danificou a imagem dessas automações”, explicou-me Pedro Andrade, vice-presidente de IA da Talkdesk. “Agora temos que usar essa tecnologia para recuperar essa confiança”, acrescenta.

Infelizmente, muitas companhias usam a IA com automações isoladas, motivadas pelo “ovo de ouro” do corte de custos. Assim, ameaçam a experiência de seus clientes e perdem a oportunidade de transformar o atendimento em um diferencial.

Usada com consciência, a IA pode oferecer personalização refinada, eficiência operacional, proatividade e prevenção. Não se limita a reagir aos clientes, antecipando suas necessidades e otimizando processos, exatamente o que as pessoas querem.

“Não é fácil fazer isso”, avisa Andrade. “Mas para os sistemas de IA, que são capazes de carregar grande quantidade de informação e ajustar o contexto da conversa, torna-se muito mais fácil”, explicando que uma plataforma bem desenvolvida atende a outras demandas dos clientes atuais, como imediatismo, hiperpersonalização e autonomia.

 

“Bazuca para matar uma mosca”

Pouco adianta usar um sistema gigantesco, porém pouco ou nada ajustado à realidade da empresa, como o ChatGPT. Suas respostas acabam sendo imprecisas e genéricas, sem falar que podem custar desnecessariamente caro. Em vez disso, a adoção de modelos menores, mais econômicos, com exigências mais simples de recursos, pode melhorar muito a experiência do cliente.

Os aspectos de segurança, de legislação e de ética também foram amplamente debatidos nessa visita à sede da Talkdesk em Palo Alto (EUA). Os benefícios da implantação da IA nos negócios são mais visíveis, como as já mencionadas eficiência, hiperpersonalização e redução de custos. Mas até que ponto isso é seguro e ético?

Os potenciais riscos dessa adoção recaem no surgimento de vieses algorítmicos, em ameaças à privacidade e ao uso de dados sensíveis, na falta de transparência e de explicabilidade das decisões dos sistemas. Em situações mais extremas, ela pode gerar dependência excessiva da automação e manipulação de clientes e funcionários.

“Muitos clientes erram ao pôr uma plataforma e tentar fazer tudo com ela, pois a inteligência artificial é mais complicada que isso”, alerta Paiva. “Não dá para usar um sistema de LLMs (como o ChatGPT) e achar que tudo funcionará”, conclui.

Para ajudar na criação de um mercado mais maduro, Andrade defende a regulamentação da IA. “Tem que existir regulação, responsabilidades, regras de transparência”, completando que isso não ameaça a inovação e que as empresas que abraçarem isso construirão um diferencial junto a seus clientes. “Essa regulação vai separar as empresas que estão no mercado sério e corporativo de IA, dos players de nicho e dos que estão ainda tentando encontrar o seu lugar.”

Esse é um dos debates mais quentes em torno dessa tecnologia. Para muitos, é bem sedutor tirar qualquer restrição a ela e maximizar os ganhos, sem se preocupar com as consequências. Mas uma IA descolada da ética e da segurança pode ser um dos maiores erros que uma empresa pode cometer, ainda que, em um primeiro momento, colha benefícios aparentes dessa “liberdade”.

O sucesso a longo prazo depende da capacidade de construir um relacionamento sustentável com a IA, cultivando seus benefícios e mitigando seus riscos. O ser humano deve sempre ter a última palavra nas decisões apoiadas por essas plataformas. E os interesses da sociedade devem estar sempre no centro de qualquer ação ligada a essa tecnologia, superando a ganância de empresas e de governos.

Assim como na fábula, a lição é que a implementação de IA requer paciência, planejamento e uma abordagem gradual e responsável. Os “ovos de ouro” virão naturalmente quando a tecnologia for implementada com sabedoria e responsabilidade.


 

Tarefas que exigem criatividade, empatia, crítica e julgamento moral são difíceis de automatizar - Foto: Freepik/Creative Commons

IA avança sobre empregos, mas não quer dizer que você perderá o seu

By | Tecnologia | No Comments

Entre as ações bombásticas de Donald Trump em seu primeiro mês como presidente dos EUA, uma das mais emblemáticas visa demitir 2 milhões de servidores federais. Parte dessas vagas será reposta com pessoas mais alinhadas a suas ideias, mas muitas funções passarão a ser desempenhadas por sistemas de inteligência artificial.

Esse movimento vem se acelerando também na iniciativa privada, mas a magnitude sem precedentes daquela iniciativa reacende o debate global sobre o impacto da IA no mercado de trabalho. A substituição de profissionais por máquinas afeta de funções básicas a cargos de alta qualificação, o que é inédito. E isso gera questionamentos sobre o futuro, incluindo o que acontecerá com uma crescente massa de desempregados que não conseguirá se recolocar.

Para muita gente, o que importa é como “não entrar para a estatística das vítimas da automação”. Tarefas que exigem, por exemplo, criatividade, empatia, pensamento crítico e julgamento moral são difíceis de automatizar. Migrar o trabalho para atividades que exijam essas habilidades pode garantir o salário.

Mas, em qualquer caso, a IA já está transformando as mais diversas funções. Sendo assim, a sociedade deve não apenas preservar empregos, como também garantir que os benefícios da automação sejam distribuídos de forma mais equitativa, para que as pessoas desempenhem suas tarefas com IA, para não serem substituídas por ela.

Resistir a essa tecnologia já não faz sentido. O desafio de todos é se apropriar de seu poder com inteligência, criatividade, ética e segurança.


Veja esse artigo em vídeo:


Recentemente, Jensen Huang, CEO da Nvidia, a fabricante de chips cujo valor de mercado hoje é de US$ 3,3 trilhões graças à IA, disse que essa tecnologia não é uma assassina de empregos. Para ele, todos deveriam usá-la como um tutor pessoal, que lhes ajudaria a coletar qualquer tipo de informação rapidamente, a escrever e até a pensar melhor. Huang ecoa a visão de muitos líderes do setor, que enxergam o futuro do trabalho com as pessoas capacitadas pela IA, e não substituídas por ela.

Claro que ele está “vendendo seu peixe”, por isso sua afirmação deve ser analisada com cautela. É fato que a IA pode ajudar qualquer um em suas tarefas, mas não é verdade que todo mundo sabe como fazer isso! Não é realista esperar que alguém que passou décadas em uma função se torne um “engenheiro de prompt” da noite para o dia.

A verdade nua e crua é que a maioria das pessoas simplesmente não tem habilidades básicas para fazer isso, e não consegue “tirar o atraso”. O problema não é apenas a substituição em si, mas a velocidade com que isso está acontecendo. É a revolução tecnológica mais rápida e abrangente já vista, atropelando muita gente no caminho.

O desafio aumenta com uma requalificação que não acompanha a automação, novas vagas que não repõem as eliminadas, e o consequente aumento da concorrência por trabalho. Isso se agrava pela desigualdade no acesso à educação e à tecnologia e à concentração do mercado em menos setores.

Isso pode levar a um aumento da pobreza e desigualdade social, com crises econômicas causadas por um forte desemprego. Se a IA passar a ser vista como uma vilã pelas massas, isso pode levar a uma resistência à automação maior que a devida.

E isso também esquenta outro debate: o de uma renda básica universal.

 

Garantia de sobrevivência

Ela não surgiu com a inteligência artificial, mas vem sendo apresentada como uma solução caso o desemprego graças às máquinas saia do controle.

Entre os argumentos favoráveis à renda básica universal estão a mitigação dos efeitos de um desemprego em massa, um estímulo ao empreendedorismo e a redução da desigualdade social. Já seus críticos afirmam que não há dinheiro para isso, que ela pode gerar inflação e até desestimular o desejo de trabalhar. Por isso, alguns especialistas sugerem que ela seja apenas parte da solução, garantindo a sobrevivência do indivíduo, mas sem eliminar a necessidade de se trabalhar.

Com ou sem ela, é preciso criar políticas para requalificação de trabalhadores em novas áreas, além da criação de empregos “híbridos” que combinem os benefícios da IA com funções humanas, para evitar a eliminação completa de postos de trabalho. Mas não se pode deixar tudo a cargo do governo: essa responsabilidade deve ser dividida com empresas, instituições educacionais e os próprios trabalhadores.

O que já se observa é que, enquanto profissões inteiras estão sendo eliminadas, as demais não desaparecerão, mas serão transformadas. Quem desenvolver habilidades complementares para usar a IA terá mais oportunidades.

A automação do trabalho é inevitável, mas seu impacto social não precisa ser devastador. Com planejamento adequado, investimento em educação e políticas de proteção social, é possível construir um futuro em que humanos e máquinas não apenas coexistam, mas colaborem para criar uma sociedade mais próspera e equitativa.

Por outro lado, se a implementação for feita sem um planejamento detalhado e sem considerar os impactos sociais, como aparentemente está sendo feito nos EUA, há um grande risco de que os serviços prestados à população percam qualidade, se tornem mais burocráticos e menos acessíveis.

É fundamental considerar as implicações éticas e sociais dessas medidas, garantindo que a implementação da inteligência artificial, seja no setor público ou no privado, aconteça de maneira responsável e equilibrada, aproveitando todos os benefícios que ela traz, mas preservando os direitos dos trabalhadores e a qualidade dos serviços prestados à população.

Precisamos de estratégias que coloquem o ser humano no centro da revolução digital. As lideranças políticas e empresariais devem sair de suas torres de marfim, de onde acham que as oportunidades são as mesmas para todos. Sem isso, corremos o risco de criar uma sociedade ainda mais desigual, onde a tecnologia, em vez de libertar, aprofunda as divisões sociais. E não é para isso que ela está sendo desenvolvida.

 

Sundar Pichai, CEO do Google, fala durante a conferência Google I/O 2024, realizada em 14 de maio do ano passado - Foto: reprodução

Google dá sua bênção para que a IA seja usada em armas e vigilância

By | Tecnologia | No Comments

Em mais um caso de big tech que trai seus princípios, na terça passada (4), o Google alterou suas regras éticas para que a inteligência artificial da empresa possa ser usada no desenvolvimento de armas, na vigilância de pessoas, em produtos que possam causar danos severos à sociedade ou que violem direitos humanos.

Não quer dizer que a companhia entrou no negócio de armas de destruição em massa. Sua posição agora é de “mitigar resultados não intencionais ou prejudiciais” e buscar “princípios amplamente aceitos do direito internacional e dos direitos humanos”. Mas na prática, isso significa pouco ou nada.

É uma mudança profunda, que pode ter impacto global no uso da IA. Pela posição de enorme destaque do Google, ela pode inspirar empresas do mundo todo a fazer o mesmo, provavelmente com ainda menos cuidado.

É inevitável perguntar por que decidiram fazer isso agora, e por que se recusavam até então. Além disso, se a IA poderá ser usada largamente em produtos criados com o objetivo de matar pessoas, qual garantia existe de que essa tecnologia não sairá do controle, com consequências devastadoras?

Vale lembrar o antigo lema do Google: “don’t be evil” (“não seja mau”), um pacto com práticas empresariais éticas e responsáveis. Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

E cá estamos discutindo como a recente decisão pode ser tão má!


Veja esse artigo em vídeo:


O Google alega que a decisão reflete a necessidade de empresas de “países democráticos” defenderem seus valores em um cenário geopolítico complexo. Mas especialistas sugerem que a pressão do mercado de IA e a busca por lucrativos contratos militares de um governo nacionalista podem ter influenciado seus gestores.

Qualquer que seja o motivo, a empresa mina a confiança do público e sinaliza que a ética é negociável. Isso estabelece um novo padrão para toda a indústria, em uma competição global impiedosa e menos preocupada com direitos humanos.

Ironicamente, no início do mês, passaram a valer partes da Lei da Inteligência Artificial da União Europeia que proíbem o uso de sistemas de reconhecimento facial em espaços públicos e restringem aplicações consideradas de alto risco, como a manipulação comportamental e a vigilância em massa.

A nova posição do Google se choca com a anterior, que listava as “aplicações que não buscaremos”: armas, vigilância, tecnologias que “causam ou podem causar danos gerais” ou que violam os princípios do direito internacional e dos direitos humanos.

Essas regras que agora foram enterradas surgiram após protestos de funcionários em 2018 contra o projeto Maven, um contrato militar que usava seus algoritmos de visão computacional para analisar imagens de drones. Milhares assinaram uma carta aberta que dizia: “acreditamos que o Google não deveria estar no negócio da guerra”. Por isso, além daquelas regras, o contrato com o Pentágono não foi firmado na época.

O Google não está sozinho nesse novo posicionamento. Concorrentes como Microsoft, Amazon, OpenAI e Anthropic já oferecem suas IAs para aplicações militares. Mas o gigante de busca sempre serviu de inspiração para aqueles que procuram um uso ético da tecnologia. Agora isso acabou!

 

“Skynet feelings”

Algumas das maiores autoridades em IA do mundo, como o canadense Yoshua Bengio, vencedor em 2018 do prêmio Turing (o “Nobel da computação”), afirmam que a busca pela inteligência artificial geral (AGI), que terá autonomia e flexibilidade semelhante ao cérebro humano, pode levar a comportamentos inesperados ou indesejados, até mesmo contrários aos interesses humanos.

Sistemas com aprendizado autônomo podem criar estratégias para autopreservação ou poder, o que poderia torná-los difíceis de controlar. A falta de transparência aumenta o risco de decisões incompreensíveis e não-rastreáveis, dificultando a intervenção humana em casos críticos. Mesmo um botão físico para desligar um servidor (um “kill switch”) poderia ser contornado com a IA se replicando em incontáveis outros servidores antes que fosse possível interromper seu funcionamento.

Adicione a esse caldo a IA sendo usada para o desenvolvimento e operação de armas autônomas. Não entrarei em cenários da ficção em que máquinas decidem exterminar a humanidade, mas isso pode, sem dificuldade, levar a violações de direitos humanos e a escaladas militares perigosas. Pode ainda incentivar o uso de IA para vigilância em massa, especialmente por regimes autoritários, comprometendo as liberdades civis.

Para evitar isso, as big techs deveriam agir de forma oposta ao que estão fazendo. Devem existir regras internas e leis que impeçam o uso da IA em atividades potencialmente perigosas ou que violem direitos individuais. Além disso, os sistemas precisam ser transparentes para auditorias independentes. E isso deve acontecer em todos os países do mundo: talvez o mais difícil de tudo isso, e o que põe tudo a perder.

A decisão do Google de flexibilizar seus princípios éticos não pode ser vista como uma mera decisão empresarial. Como uma das empresas mais valiosas do mundo, cujos produtos são usados diariamente pela maior parte da população global, deveria ser um farol mostrando que responsabilidade e inovação podem coexistir. Mas a gigante decidiu priorizar os lucros em detrimento da segurança e dos direitos humanos.

Essa é uma lógica do capitalismo: companhias não fazem nada que comprometa seus lucros. Assim, é uma ilusão esperar que elas se autorregulem efetivamente por pressões competitivas e financeiras. Diante disso, regulamentações governamentais tornam-se essenciais para estabelecer limites claros e garantir que o desenvolvimento tecnológico continue existindo, mas sem comprometer valores humanos fundamentais.

Nada disso é ficção: vivemos uma realidade que nos brinda com avanços fabulosos, mas que oferece um mundo perigosamente instável por conflitos militares, Estados autoritários que atropelam a civilidade pelos interesses de seus governantes, e uma sociedade cada vez mais fragilizada, em que o cidadão, de tão manipulado pelo meio digital, defende ferozmente seus próprios algozes.

Com tudo isso, quem precisa de robôs assassinos?

 

Liang Wenfeng, CEO da DeepSeek, cujo modelo de IA desafia a liderança americana no setor - Foto: reprodução

Dinheiro, espionagem, boicotes: como a IA dominou o tabuleiro geopolítico

By | Tecnologia | No Comments

O domínio tecnológico sempre garantiu destaque na geopolítica, desde as Grandes Navegações. Países com essa liderança estendem seu poder econômico, político e cultural por grande parte do planeta. A bola da vez é a inteligência artificial, e os EUA estão fazendo de tudo para manter essa liderança. Não é para menos: a IA tem um poder sem precedentes de moldar o mundo seguindo os interesses de seus criadores.

Os EUA pareciam tranquilos nisso, mas, na semana passada, a chinesa DeepSeek surpreendeu o mercado, políticos e pesquisadores, com seu próprio LLM (modelo de linguagem de grande porte) para concorrer com os líderes americanos. Apesar de seus resultados se equipararem aos das plataformas ocidentais, o mais surpreendente dos chineses é o seu custo: enquanto elas já consumiram bilhões de dólares e querem ainda mais, a DeepSeek precisou de “apenas” US$ 5,6 milhões para seu produto!

Foi um “escândalo” os chineses conseguirem esse feito notável, ainda mais depois de os EUA imporem restrições à exportação de tecnologia (especialmente processadores poderosos) para segurar a China “na marra”. Isso deu uma surra no valor de mercado das big techs americanas. A NVIDIA perdeu US$ 589 bilhões em 27 de janeiro, a maior queda já registrada. Com as outras big techs, o saldo negativo foi de US$ 643 bilhões! É o mercado questionando os altos investimentos ocidentais em IA, depois de acreditar que ela só seria possível com uma enxurrada de dinheiro.

Tudo isso aconteceu apenas uma semana depois de o governo americano anunciar um megainvestimento de US$ 500 bilhões para construir datacenters para impulsionar sua IA contra os chineses. Isso certamente chama a atenção, mas os fatos estão demonstrando que inteligência e resiliência podem valer mais que dinheiro e boicotes.


Veja esse artigo em vídeo:


A tentativa de impor travas à IA da China começou ainda na administração Joe Biden. Mas a presença dos CEOs da big techs na primeira fila da posse de Donald Trump, à frente até de seus ministros, escancarou que a tecnologia e a política nunca estiveram tão juntas. Tanto que Elon Musk, dono do X, teve um papel enorme na vitória de Trump, que retribui dando a ele um cargo de grande poder em seu novo governo.

Inaugurou-se assim o período de dominação tecnossocial: o poder se constrói e se mantém com a tecnologia, não apenas pelos seus benefícios inerentes, mas também por oferecer um recurso inigualável de convencimento e de distorção da realidade.

Desde o início do ano passado, eu discuto nesse espaço como a explosão da inteligência artificial generativa pode reescrever a história, impor valores, alterar a cultura e até como as pessoas falam! Ao serem treinadas majoritariamente com conteúdos americanos e europeus, essas plataformas disseminam, de maneira subliminar, como os países dominantes pensam sobre tudo isso, podendo, em longo prazo, influenciar decisivamente pessoas do mundo todo.

A DeepSeek acrescenta um novo ingrediente nesse caldo: a submissão ao governo. Ao questionar a plataforma sobre temas sensíveis para a administração chinesa, como a independência de Taiwan, os protestos contra a política de “Zero Covid” na China, o massacre da praça da Paz Celestial em 1989 e até quem é o presidente chinês Xi Jinping, ela iniciou a exibição de boas respostas, mas subitamente elas foram apagadas e substituídas pela frase em inglês “Desculpe, isso está além do meu escopo atual. Vamos falar de outra coisa.” Em outras perguntas, como sobre a posição do governo chinês sobre a Guerra na Ucrânia, reproduziu o discurso governamental.

É amplamente sabido que o governo chinês obriga empresas locais a “colaborarem” com suas determinações, inclusive censura. Em contrapartida, nos EUA, as big techs já desafiaram a exigências do governo local no passado.

Mas o escandaloso alinhamento delas ao extremismo do recém-empossado Trump cria enorme desconfiança se não veremos nas empresas americanas o mesmo que se vê nas chinesas. Afinal, nesses poucos dias, elas já enterraram medidas que as diferenciavam, como mecanismos de checagem de fatos, restrição a discursos de ódio e intolerância, e incentivo à diversidade e inclusão em seus quadros. Trump, por sua vez, não esconde que exige delas fidelidade canina e total submissão.

A manipulação nos resultados chineses tem a sutileza de um rinoceronte correndo em uma loja de cristais. Por isso, o governo de Taiwan proibiu o uso de produtos da DeepSeek em seu país, para evitar a desinformação. Mas as mudanças adotadas pelas big techs americanas disseminarão amplamente, porém de maneira um pouco mais disfarçada, valores reprováveis até nos EUA. Se o mundo seguir o raciocínio de Taiwan, todos devem bloquear esses produtos americanos então?

 

Reação às restrições

Suprema ironia, as empresas americanas podem estar colhendo frutos amargos plantados pelo seu governo. A tentativa de impedir o avanço chinês na IA ignorou a capacidade de Pequim de incentivar empresas locais dispostas a assumir lideranças tecnológicas. As restrições dos EUA fizeram com que os chineses trocassem os produtos americanos por equivalentes locais ou de outros países, mas principalmente investissem em pesquisa, criatividade e colaboração.

Isso não vem de hoje. Levantamento do Instituto Australiano de Política Estratégica indicou que, até 2007, a China liderava só 3 de 64 tecnologias consideradas críticas. Entre 2019 e 2023, o país tornou-se líder em 57 delas, graças a investimentos de longo prazo em pesquisa e desenvolvimento. No mesmo período, os EUA passaram de líderes em 60 delas para apenas 7.

A DeepSeek mostrou ao mundo que é possível entrar para valer na briga da IA com investimentos modestos. A ministra da Ciência, Tecnologia e Inovação, Luciana Santos, afirmou que o Brasil está nessa corrida. No ano passado, seu ministério anunciou investimentos de R$ 23 bilhões em IA até 2028. Ela lembrou também que o país tem grande oferta de energia limpa e água, outra grande exigência da IA.

As ideias e ações de Trump podem levar a um caos na economia global, por uma crise de confiança generalizada. É difícil saber como isso impactará a China e os próprios EUA. Mas parecem ser inócuas para conter o avanço tecnológico chinês.

Apesar de ter sido péssima para as big techs, a chegada da DeepSeek é ótima para o desenvolvimento dessa tecnologia, pois mostra que ela pode ser criada com muito menos dinheiro, não precisando ficar restrita a empresas multibilionárias.

Resta a questão da dominação cultural e de uma patológica distorção da realidade, que pode vir da China, dos EUA e até do Brasil, caso desenvolvamos um LLM que também seja enviesado por interesses políticos.

Mais do que nunca, a população precisa de senso crítico, educação diversificada e de qualidade para todos, além de amplos programas de educação digital e midiática. Essa tríade fica cada vez mais essencial no mundo em que IA permeia tudo, para que façamos um uso positivo e seguro de todo seu poder.