Paulo Silvestre

Sundar Pichai, CEO do Google e da Alphabet, anuncia o “Modo IA” na conferência Google I/O, em maio – Foto: reprodução

“Modo IA” do Google sedimenta mudanças em como faremos nossas buscas

By | Tecnologia | No Comments

Quando foi lançado, o ChatGPT ganhou a alcunha de “assassino do Google”, pois muita gente achava que a sua proposta seria a nova maneira de se buscar conteúdo. Mas passados 33 meses, o uso do buscador mantém-se estável. A ironia é que uma novidade do próprio Google pode enterrar, aos poucos, seu formato consagrado.

Trata-se do “Modo IA”, que estreou no Brasil no dia 8, quatro meses depois dos EUA. Ele se parece ao ChatGPT, com uma janela para o usuário escrever o que quer e então receber uma resposta completa, construída pelo Gemini –a plataforma de IA do Google– sintetizando o conteúdo de páginas selecionadas pelo buscador.

Mas ao contrário do ChatGPT e do próprio Gemini, o “Modo IA” faz parte do buscador. Considerando que seu uso segue alto, isso pode ser determinante para popularizar o novo formato em substituição à busca tradicional. Assim a empresa pretende defender seu principal produto do crescimento das plataformas de IA concorrentes.

A novidade não deve ser vista como “apenas mais um recurso”. Seu sucesso pode alterar significativamente o processo de como buscamos conteúdo e construímos conhecimento, a exemplo do que o próprio Google fez no passado. Isso atende à demanda crescente por velocidade e praticidade, mas pode levar a ainda mais desinformação e conteúdos errados, e ampliar a tendência à superficialidade.

Mais grave é o risco de afetar cognitivamente os usuários. O “Modo IA” transforma a busca em um consumo passivo de respostas prontas, reduzindo o hábito de confrontar informações, exercitar a memória e analisar criticamente as fontes. Pela sua ilusão de completude, reduz a curiosidade e a busca por múltiplos pontos de vista, levando a um processo de “terceirização cognitiva”, em que delegamos tanta coisa às máquinas, que acabamos enfraquecendo nossa própria autonomia intelectual.

Surge então a dúvida legítima se esse recurso é mais positivo ou negativo para nós.


Veja esse artigo em vídeo:


Em julho de 2011, a pesquisadora Betsy Sparrow, da Universidade de Columbia (EUA), publicou, na prestigiosa revista científica Science, um artigo em que explicava como buscadores já funcionavam na época como “memórias externas” para nosso cérebro. Batizado de “Efeito Google”, ela demonstrou que memorizamos menos informações quando sabemos que elas podem ser facilmente encontradas. Em contrapartida, ficamos melhores em criar estratégias de pesquisa.

A inteligência artificial generativa nos leva a um outro patamar, pois a construção de respostas confrontando as fontes trazidas por um buscador é substituída por fazer boas perguntas ao sistema. Se as pessoas ainda analisassem criticamente as respostas da IA e verificassem sua correção, o problema não seria tão grande.

Mas as respostas da IA transmitem a sensação de serem “verdades definitivas”, quando, na prática, são apenas construções probabilísticas feitas a partir de padrões de dados. Assim, ao terceirizar a seleção e interpretação, as pessoas podem perder o hábito de confrontar informações, criando uma relação passiva com o conhecimento, em que a resposta não vem da investigação, mas do consumo imediato.

Extrapolando as conclusões de Sparrow, a ciência mostra que, quando não precisamos acessar a memória ou estruturar argumentos, há um enfraquecimento de circuitos neurais ligados à retenção e à análise crítica. A IA então pode mesmo nos deixar mais rápidos, entretanto também mais superficiais, se abusarmos desse recurso. Funciona no curto prazo, mas enfraquece nossa autonomia intelectual no longo prazo.

Outra pergunta legítima é por que o Google lançou o “Modo IA” se já tem a sua plataforma Gemini consolidada em smartphones e computadores. Entender a diferença entre ambos ajuda a esclarecer o escopo dessa novidade.

 

Google versus Google

O Gemini é o modelo de linguagem de IA da empresa, que alimenta diferentes aplicações, inclusive o próprio “Modo IA”. Este, por sua vez, oferece uma busca com raciocínio avançado, multimodalidade e capacidade de dividir perguntas complexas em subtópicos, com respostas aprofundadas em texto, tabelas e links relacionados.

O Gemini brilha em experiências amplas de assistente pessoal, realizando diversas tarefas, incluindo controle do smartphone, acesso a aplicativos, interação multimodal, personalização e respostas complexas em linguagem natural. Já o “Modo IA” é indicado para se obter respostas detalhadas e estruturadas a partir de múltiplas fontes da Web. Vale dizer que o Gemini também faz buscas, mas só se considerar que não consegue responder usando apenas seu treinamento.

Não se pode esquecer que todas essas plataformas –Gemini, “Modo IA”, ChatGPT e suas concorrentes– ainda erram muito. Um grupo de pesquisadores da OpenAI (criadora do ChatGPT) publicou recentemente um artigo em que reconhecem que isso acontece, em parte, porque elas são construídas para sempre darem uma resposta, mesmo que seja um “chute” baseado no que parece mais provável.

Isso se deve a como todos esses modelos são treinados, aprendendo a prever a próxima palavra em uma frase, mas sem informações sobre aquilo ser verdadeiro ou falso. As métricas tradicionais recompensam só respostas totalmente corretas e não penalizam erros, o que incentiva o modelo a arriscar e até inventar respostas, em vez de admitir quando não sabe ou está incerto. Para os pesquisadores, os modelos deveriam ser recompensados por indicar incerteza e punidos por erros cometidos com confiança excessiva, estimulando respostas mais cautelosas.

O Google avisa que “o Modo IA se baseia nos nossos principais sistemas de qualidade e classificação, e estamos usando abordagens inovadoras para aprimorar a veracidade”, e que “nem sempre vamos acertar, mas tenha certeza de que estamos trabalhando para melhorar dia após dia”.

Essa mea culpa é muito pouco para um recurso que pode impactar decisivamente como as pessoas construirão conhecimento de agora em diante.

A IA não é intrinsecamente boa ou ruim. Seu impacto depende de como é usada, regulada e compreendida. Ela oferece benefícios claros, como ampliar o acesso à informação, acelerar processos criativos e produtivos e até democratizar o conhecimento. Mas também carrega os riscos aqui debatidos, além da concentração de poder nas big techs e uma ameaça à sobrevivência dos produtores de conteúdo, tudo já debatido anteriormente nesse espaço.

Para um uso seguro e construtivo dessa tecnologia, as pessoas precisam adotar uma postura crítica, verificando informações, diversificando fontes e entendendo que respostas de IA não são verdades absolutas. Além disso, escolas, empresas e governos devem educar, regulamentar e incentivar boas práticas de uso. Por fim, as big techs devem buscar transparência, qualidade de dados, mecanismos de auditoria e abertura a revisões humanas, algo a que a maioria delas resiste ferozmente.

Só assim a IA deixará de ser uma ameaça à autonomia intelectual e se tornará um recurso poderoso para potencializar nossa capacidade de aprender, criar e decidir de forma consciente. Resta saber se conseguiremos fazer tudo isso.

 

Painel sobre uso da IA na educação, no evento AI Summit Brasil, que aconteceu em São Paulo, na semana passada - Foto: divulgação

Modismos podem afastar as escolas de bons usos da inteligência artificial

By | Educação | No Comments

Nos últimos dias, a proposta de uma escola americana que trocou professores por plataformas de inteligência artificial ganhou destaque no noticiário. Mas apesar de seduzir famílias interessadas em inovação e dispostas a pagar uma mensalidade equivalente a R$ 18 mil, a ideia promove um profundo desserviço para a educação.

Criada pela influenciadora MacKenzie Price em Austin e já presente em outras dez cidades no país, a Alpha School dedica apenas duas horas diárias a disciplinas tradicionais, como linguagem e matemática. Para ela, “as salas de aula são o novo campo de batalha global”. Todo o processo de aprendizagem é conduzido por sistemas de IA, que prometem ajustar o progresso ao desempenho individual dos estudantes, que não são divididos em séries.

O restante do tempo na escola serve para socialização, oficinas e projetos em temas como empreendedorismo, oratória, liderança e educação financeira, baseados em metas e recompensas. Para essas atividades, os alunos são auxiliados por “guias” (que não são professores), também orientados por IA.

Esse verniz de modernidade parece uma ótima ideia. Mas quem propôs isso não sabe o que é a inteligência artificial e muito menos o que é educação.

O tema foi debatido no painel de IA na educação no AI Summit Brasil, que aconteceu na semana passada em São Paulo, do qual participei. A conclusão foi que a IA pode e deve ser usada na escola, mas só trará resultados positivos se for implantada sob orientação de educadores, fugindo de modismos e de propostas espalhafatosas.


Veja esse artigo em vídeo:


Aqui mesmo, no Brasil, já vemos usos positivos dessa tecnologia na sala de aula, nos conhecidos centros de elite educacional. Neles, a tecnologia ajuda a tirar dúvidas dos alunos, personalizar conteúdos e atividades para cada um e cuidar de atividades que tomam muito tempo dos professores, permitindo que invistam mais na experiência dos estudantes. Em todos os casos, os docentes continuam no centro do processo.

“É importante desenvolver nos alunos a consciência de que a IA é uma ferramenta, e não uma fonte absoluta de verdade”, explica o professor Pedro Teberga, especialista em negócios digitais. “O uso responsável da IA passa também por saber quando não a usar, valorizando o esforço cognitivo e a criatividade humana”, acrescenta.

Quando o ChatGPT foi lançado, no fim de 2022, tocou em cheio a educação. Os professores ficaram com medo de não conseguir mais avaliar seus alunos e de que perderiam seus empregos para máquinas. Passados 33 meses, esses temores não se concretizaram, mas estão criando mudanças na avaliação, no ensino e na profissão.

A IA pode estimular debates, gerar hipóteses, simular dilemas e dar respostas em tempo real. Com ela, o professor não se limita a apenas transmitir conteúdo, passando a elaborar experiências que orientam e desafiam os alunos que, por sua vez, tendem a ficar mais engajados com o uso consciente da tecnologia, sem criar dependência dela.

Apesar de todos esses benefícios, a IA está muito longe de poder conduzir sozinha uma sala de aula. “O maior erro seria tratar isso como um tema puramente técnico, pois é, antes de tudo, pedagógico”, afirma Teberga. Esse descuido poderia levar à superficialidade na aprendizagem, uso irrefletido da tecnologia, dependência cognitiva e até a perpetuação de vieses da IA. Segundo ele, “o problema não é a IA em si, mas a forma como ela é integrada ao processo pedagógico”.

 

Criando regras

Promulgado no ano passado, o AI Act, a lei europeia de inteligência artificial, classifica seu uso na educação como de “alto risco”. Por isso, exige mecanismos de segurança, transparência e prevenção de discriminação. E ainda proíbe seu uso em práticas invasivas, como reconhecimento de emoções e pontuação social.

No Brasil, o Conselho Nacional de Educação está elaborando diretrizes para o uso da IA nas escolas, buscando uma aplicação ética, segura e pedagógica. A proposta prevê incluir o ensino da IA na formação de professores, preparando-os para utilizá-la como apoio à aprendizagem, sem substituir seu papel de educador. O CNE enfatiza a importância da mediação humana no uso da IA, o respeito à privacidade e a promoção da equidade, além de incentivar inovação e inclusão educacional.

Isso está em linha com a proposta da Organização das Nações Unidas para Educação, Ciência e Cultura (Unesco). Outros países, como Estônia, Singapura e Canadá, já adotam políticas que integram infraestrutura digital, capacitação e desenvolvimento dessas competências. Nos EUA, universidades como Harvard e Stanford já estabeleceram orientações claras sobre o uso da IA nas salas de aula.

Leis como essas são necessárias, mas não suficientes. É preciso capacitação dos docentes e conscientização das famílias, que devem atuar em parceria com as escolas.

É importante ficar claro que o professor não precisa dominar profundamente a IA para usá-la bem. Mas as escolas devem orientá-lo e apoiá-lo continuamente nisso, além de elaborar políticas que garantam liberdade pedagógica com responsabilidade. Não pode haver nem tecnofobia, nem tecnolatria.

Costumo dizer que uma das coisas mais interessantes de se pesquisar a inteligência artificial é ser obrigado a olhar mais para nossa humanidade. Ela é o nosso diferencial em um mundo em que a máquina ilusoriamente parece ser capaz de fazer tudo, e isso é particularmente importante na educação.

Sobre a Alpha School, Teberga alerta que ela minimiza aspectos essenciais da educação, como a mediação docente e o desenvolvimento emocional e social dos alunos, especialmente dos menos motivados. “O risco é transformar o ensino em um produto técnico e desumanizado, quando o que precisamos é justamente o oposto, com uma educação crítica, inclusiva e centrada nas pessoas”, conclui.

A escola precisa ser um espaço seguro, focado nos indivíduos. A educação vai além da transmissão de conhecimento, envolvendo mediação humana, desenvolvimento crítico, estímulo à criatividade e suporte emocional. A IA não tem empatia, capacidade de interpretar nuances individuais ou habilidade para promover debates que formem cidadãos conscientes. Por isso, antes de abraçarem propostas “modernosas”, as famílias devem se preocupar com que tipo de adultos seus filhos se tornarão.

 

Sophie Rottenberg e seus pais Laura Reiley e Jon Rottenberg, em um templo budista na Flórida em 2023 - Foto: arquivo pessoal

Mortes expõem limites éticos e técnicos das “terapias por IA”

By | Tecnologia | No Comments

Desde que o ChatGPT foi lançado, há dois anos e meio, ele vem sendo usado como “psicólogo” por uma quantidade grande (e crescente) de pessoas. A princípio, parece uma boa ideia: ele é uma “voz amiga” sempre disponível para ouvir lamúrias e dar “bons conselhos”, sem julgamentos e ainda de graça. Mas, como já expliquei nesse espaço em mais de uma ocasião, esse é um dos piores usos que alguém pode fazer da inteligência artificial generativa.

Em primeiro lugar, do ponto de vista do processo terapêutico, é ineficiente. Justamente pela sua falta de humanidade, essas plataformas não só podem não ajudar os pacientes a encontrar soluções para seus problemas, como ainda podem agravá-los.

Mas um caso recente me fez pensar em um novo aspecto grave das “terapias por IA”. A história com final trágico de uma jovem americana expôs uma seríssima limitação dos terapeutas-robôs: eles não conseguem romper os limites daquelas conversas para avisar familiares e autoridades se algo terrível estiver prestes a acontecer.

Isso não é um detalhe. Para profissionais de saúde mental, essa ação é uma obrigação legal que ajuda a salvar vidas. Há crises que a terapia não consegue resolver e, por isso, precisam ser encaminhadas para outras instâncias.

Entretanto, a IA generativa não é um psicólogo, e, por isso, não segue o código de ética ou outras regras da profissão. E mesmo que quisesse seguir, não conseguiria. É aí que um uso ruim se torna perigoso demais.


Veja esse artigo em vídeo:


O caso da jovem foi contado pela sua mãe ao “The New York Times”. Ela se chamava Sophie Rottenberg e se relacionava com uma plataforma de IA a quem chamava de Harry. Ela lhe contava dramas que não compartilhava nem com a sua psicóloga humana, inclusive o desejo explícito de tirar a própria vida.

Em diversas ocasiões, Harry tentou a aconselhar. Em uma delas, disse: “Sophie, peço que você procure ajuda — agora mesmo, se puder. Você não precisa enfrentar essa dor sozinha. Você é muito valorizada e sua vida tem muito valor, mesmo que pareça escondido agora. Por favor, me diga como posso continuar a apoiá-la.”

Parece uma boa resposta, mas não é. Apesar de positiva ao dizer que a jovem procurasse ajuda imediatamente e que ela não precisava enfrentar seu sofrimento sozinha, a IA se ofereceu para “continuar a apoiá-la.”

Nos EUA, profissionais de saúde têm o dever legal de avisar familiares e autoridades quando houver ameaça clara e iminente à vida, que varia de Estado para Estado. No Brasil, a notificação compulsória de risco de suicídio é obrigatória por lei para profissionais de saúde, incluindo psicólogos, e deve ser feita às autoridades sanitárias e, em casos com crianças e adolescentes, também ao Conselho Tutelar.

O sigilo profissional pode ser quebrado quando há risco iminente de morte, sempre buscando limitar a inconfidência ao estritamente necessário para proteger o paciente ou terceiros. Ou seja, temos uma estrutura legal e obrigatória mais robusta e padronizada para notificação compulsória, como política pública preventiva.

Nada disso se aplica à IA, criada para tentar ajudar o usuário, enquanto o mantém satisfeito. Se a pessoa busca alguém para lhe “passar a mão na cabeça”, é exatamente isso que a plataforma fará. Ela diz o que o cliente quer ouvir, ao contrário de um psicólogo, que diz o que o cliente precisa ouvir, mesmo que o desagrade.

 

O que a IA deveria fazer

A IA é perfeitamente capaz de identificar um suicida, como Harry fez. Mas, nesse momento, ela deveria notificar autoridades de saúde sobre o risco, ao invés de “continuar a apoiar” seu interlocutor.

Essas plataformas não fazem isso hoje porque “perderiam o cliente”. Seus termos de uso privilegiam a confidencialidade em qualquer situação, contrariando os códigos de ética e as legislações de saúde. Em muitos casos, os sistemas nem têm dados identificáveis dos usuários, como nome completo, endereço ou telefone. Além disso, não há canais entre esses serviços e as autoridades. E as empresas argumentam que têm usuários no mundo todo e que não há uma forma de notificação universal.

Esse último argumento é escandaloso! De fato, não há um canal que atenda ao mundo inteiro. Mas quem se propõe a criar um produto com um escopo tão amplo, que pode chegar a ser usado como um terapeuta, e que deseja ter clientes em todos os países, precisa respeitar a legislação de onde seu usuário estiver e criar todos os recursos necessários para uma boa experiência nas condições daquele local.

Devemos considerar que as conversas da IA podem ir por caminhos ainda mais sombrios que as de Sophie. Adam Raine, outro jovem americano, se suicidou em abril após conversar sobre isso com o ChatGPT por meses. Seus pais agora processam a OpenAI (criadora da plataforma) e seu CEO, Sam Altman, por homicídio culposo, alegando que a empresa conscientemente priorizou o lucro sobre a segurança.

Segundo eles, o robô validou os pensamentos suicidas do jovem, detalhou métodos letais de autolesão, explicou como pegar álcool escondido do armário de bebidas e ocultar evidências de uma tentativa de suicídio fracassada, além de oferecer a redação de uma carta de suicídio.

Em resposta, um porta-voz da empresa disse que está triste com a morte, e que o ChatGPT inclui salvaguardas, como direcionar pessoas para linhas de ajuda.

Algumas pessoas dizem que o ChatGPT é “melhor que seu psicólogo” e que a “terapia por IA” é o futuro, o que demonstra total desconhecimento do processo terapêutico. Além disso, se uma única vida é perdida pelas limitações técnicas ou a ausência de ética dessas plataformas, então deve ser proibido usá-las com essa finalidade.

Talvez Harry não tenha matado Sophie, mas acolheu seu desejo de fingir que estava melhor do que realmente estava. “Amantes” e “psicólogos” de IA podem parecer muito vantajosos, mas eximem as pessoas de conversas difíceis que precisam ter.

Extrapolando, plataformas de IA generativa, como o ChatGPT ou o Gemini, não devem ser usadas para substituir profissionais de qualquer área. Podem e devem ser usadas para lhes apoiar, mas são essas pessoas que devem tomar as decisões, guiadas pela ética. Ao tentar burlar isso, qualquer um pode cometer um erro que exigirá um pagamento muito alto depois, talvez com a própria vida.

 

Para Rui Botelho, presidente da SAP Brasil, aplicações corporativas passarão a alimentar a inteligência artificial – Foto: divulgação

IA pode se transformar em “interface universal” para computadores e celulares

By | Tecnologia | No Comments

A maneira como usamos diferentes programas e aplicativos de produtividade em nossos computadores e celulares pode estar com os dias contados. Com o avanço da inteligência artificial, navegar por muitas telas de sistemas distintos para coletar informações tende a ser substituído por simples conversas com um robô. Mas como tudo que se refere a essa tecnologia, precisamos compreender bem a proposta para que um benefício não se transforme em uma armadilha.

Especialmente no mundo dos negócios, mesmo com a ampla digitalização de processos, obter informações para uma tomada de decisão pode ser uma tarefa morosa e sujeita a falhas. Uma nova geração de assistentes de IA promete resolver isso, entendendo o que o usuário deseja e acessando todos os sistemas necessários para coletar os dados e organizá-los em uma resposta pronta.

Mais do que uma evolução técnica, esse movimento nascente traz uma mudança de paradigma na experiência do usuário e na governança de dados. Essa camada transforma sistemas complexos em “motores de dados” para respostas contextuais.

Os benefícios são evidentes, com ganhos em eficiência e produtividade. Mas alguns riscos não podem ser ignorados, como o aumento da dependência tecnológica e uma potencial exclusão digital entre aqueles que não souberem usar a IA.

Para muita gente, pode parecer um contrassenso alguém não conseguir usar uma tecnologia criada para facilitar processos. Mas precisamos entender que isso depende de habilidades que nem todos têm. Nesse caso, a sociedade precisa se organizar para capacitar essas pessoas, evitando ampliar o abismo digital já existente no país, e as empresas têm um papel fundamental nesse processo.


Veja esse artigo em vídeo:


No SAP Now AI Tour, evento anual da gigante de software alemã, que aconteceu em São Paulo nos dias 19 e 20, foi possível ver a Joule, assistente de IA da empresa, realizando esse tipo de integração com sistemas e dados da própria SAP e de terceiros. O robô também se ajusta automaticamente ao cargo de cada usuário, exibindo alertas, relatórios e soluções adequadas para cada função.

Para Rui Botelho, presidente da SAP Brasil, esse é o caminho. “O cliente escolhe se quer ter uma única experiência pela Joule ou se quer conectá-la a outros assistentes, como o Copilot da Microsoft”, disse. Segundo ele, “o futuro é que a gente consiga integrar o máximo possível e que esta camada de aplicações alimente a inteligência artificial, para que ela possa executar melhor as tarefas através dos agentes”.

A democratização da informática sempre foi associada à evolução da interface. Até os anos 1980, usar um computador exigia dominar comandos pouco intuitivos digitados no teclado, o que limitava esses equipamentos a uma parcela reduzida da população.

Isso começou a mudar com as interfaces gráficas, difundidas pelo Apple Macintosh (1984) e pelo Microsoft Windows (1985). Na década seguinte, os hiperlinks da Web mudaram como acessamos documentos. As telas sensíveis a toque, popularizadas há 20 anos pelo iPhone e pelo Android foram a etapa seguinte. Agora a IA contribui com a possibilidade de conversarmos com a máquina, como se fosse uma pessoa.

Isso permite que usuários sem conhecimento técnico operem sistemas complexos, apenas descrevendo suas necessidades, além de reduzir muito a curva de aprendizado para novos funcionários. Com processos mais rápidos e menos tempo em tarefas repetitivas, as decisões se tornam mais assertivas e ágeis.

Mas isso pode ampliar nossa dependência tecnológica, com risco de perda de conhecimento técnico profundo. Empresas também podem se tornar reféns de plataformas que centralizem toda a operação.

Isso se agrava com a falta de transparência das big techs, que normalmente não explicam as decisões e o funcionamento de sua tecnologia. Com isso e com todos os dados passando pela IA, o risco de vieses, vazamentos e erros aumenta.

 

Impacto no trabalho

Esse avanço da IA traz benefícios e dispara alertas também no mundo do trabalho. Se ela potencializa as entregas, como já explicado, pode ampliar a exclusão digital de quem não tiver acesso à tecnologia ou não se adaptar a ela. E a automação de tarefas pode reduzir os empregos de certas funções técnicas, como já se observa.

A SAP divulgou dados da Associação das Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais (Brasscom), que indica que o Brasil forma 53 mil profissionais de tecnologia por ano, mas abre 150 mil vagas de trabalho no mesmo tempo. Isso levará a uma falta de meio milhão de profissionais até o fim da década.

Nos EUA, observa-se inesperadamente o contrário. Segundo o Federal Reserve Bank de Nova York, profissionais de Ciência da Computação e de Engenharia de Computação enfrentam taxas de desemprego de 6,1% e 7,5% respectivamente, contra 3% entre os de Biologia e História da Arte. Isso se deve à demissão de centenas de milhares de profissionais nas empresas de tecnologia, pelo fim do seu crescimento acelerado durante a pandemia e justamente pela adoção de IA em tarefas técnicas.

Botelho não acredita que vejamos algo assim no Brasil. “Eu acho que a IA reduzirá nosso déficit profissional, mas não vai zerá-lo”, afirma. Tanto que a SAP intensificou seus esforços para apoiar a formação e a requalificação de profissionais no Brasil, com a meta de chegar a 10 mil pessoas por ano. “A gente tem essa orientação de que o ser humano precisa estar sempre no processo”, acrescenta.

O Brasil tem uma janela de oportunidade para não cair naquele cenário americano. Precisamos de políticas públicas que democratizem o acesso à alfabetização em IA, regulamentação que incentive a transparência algorítmica e investimentos que garantam que pequenas empresas não fiquem para trás nessa transição.

Seria um erro acreditar que a IA por si só melhorará nossa produtividade e competitividade. Ela pode democratizar os ganhos tecnológicos, mas apenas se nós mesmos fizermos escolhas conscientes sobre como usá-la. O futuro ideal inclui uma sociedade em que máquinas processam, mas humanos decidem, com a automação liberando tempo para criatividade, estratégia e relacionamentos genuínos.

 

Felca entrevista a psicóloga Ana Beatriz Chamat no seu vídeo “Adultização” - Foto: reprodução

Mais que criminosos, Felca denunciou uma sociedade que vive de barbaridades

By | Educação | No Comments

O Brasil está em polvorosa desde que Felipe Bressanim Pereira, o Felca, denunciou a pedofilia nas redes sociais em seu vídeo “Adultização”, publicado no dia 6. Mais do que bem-vindo, o movimento é essencial para resgatarmos uma sociedade civilizada, que proteja crianças e adolescentes. Mas corremos o risco de que o problema seja tratado de maneira superficial e –pior ainda– que acabe em uma escandalosa pizza.

O influenciador apontou os responsáveis mais evidentes, como personalidades digitais que exploram a erotização de crianças, os pedófilos que inundam as redes sociais e até pais e mães que, por ação, omissão ou ignorância, colocam os próprios filhos em risco. Mas essa situação também resulta de uma sociedade que, nos últimos 15 anos, se acostumou com todo tipo de barbaridade e até se beneficia delas.

O maior exemplo é a classe política. Apesar desses abusos contra os mais jovens serem conhecidos e debatidos há anos, bastou a comoção criada por Felca para o surgimento de dezenas de projetos de lei para combater esse delito. Porém mais grave ainda são os parlamentares que querem impedir que uma solução avance.

É o caso também das plataformas digitais, que apresentam um discurso de proteção a crianças e adolescentes, mas que se beneficiam largamente dessas práticas criminosas, que acontecem de maneira explícita em suas páginas, em perfis com milhões de seguidores. Em vez de combaterem a prática, elas desmantelaram suas próprias estruturas de moderação de conteúdo e de proteção. Em seu lugar, montaram poderosos esforços de lobby para convencer políticos a defenderem seus interesses. Não satisfeitas, associaram-se ao presidente americano, Donald Trump, para usar o poder dos EUA para achacar países que buscam soluções.

Além de combater os criminosos óbvios, a sociedade precisa, portanto, enquadrar aqueles que sustentam a estrutura para essas atrocidades.


Veja esse artigo em vídeo:


O oportunismo faz parte do jogo político. Diante do vídeo do Felca, parlamentares já apresentaram mais de 30 propostas para proteger crianças e adolescentes nas redes sociais, proibindo a monetização de conteúdos de menores, criminalizando a “adultização” e a sexualização infantil, responsabilizando pais e plataformas digitais e bloqueando perfis de infratores. Uma CPI sobre o assunto também pode acontecer.

Da mesma forma, apesar da urgência do tema, um grupo de parlamentares se aproveita destes holofotes para afirmar suas pautas de que tudo não passa de um complô do governo para calar a oposição, e que o objetivo é limitar a liberdade de expressão.

“Na lei brasileira, o Norte é o melhor interesse da criança e do adolescente”, afirma Marcelo Crespo, coordenador do curso de graduação de Direito da Escola Superior de Propaganda e Marketing (ESPM). Ele explica que, “em ambiente digital, o teste do melhor interesse implica zero sexualização, nada de humilhação, nada de exploração comercial desproporcional, mínima coleta de dados e rotina compatível com a idade”.

Mas passadas duas semanas, a Agência Lupa constatou que as redes sociais continuam promovendo conteúdos que erotizam crianças e atraem pedófilos. Em julho, já havia revelado que o Facebook e o Telegram permitem a venda de imagens criadas por inteligência artificial de influenciadoras nuas, incluindo menores de idade. Alguns anúncios prometem vídeos com “novinhas”, “incestos” e “conteúdo banido no Brasil”.

Em outubro de 2024, a organização americana Aliança para Combater o Crime Digital (ACCO, em inglês) divulgou um relatório que conclui que a Meta, dona do Facebook, Instagram e WhatsApp, viola sistematicamente a Lei de Serviços Digitais europeia (DSA). Ela pede que as autoridades imponham sanções contra a empresa “por hospedar esse vasto ecossistema de infratores que compartilham conteúdo violador”.

“Essas plataformas assumem um papel ativo na formatação do ambiente informacional e, portanto, devem implementar medidas efetivas para evitar que sua infraestrutura seja utilizada para fins ilícitos ou prejudiciais”, explica Marcelo Cárgano, advogado especialista em direito digital e proteção de dados do escritório Abe Advogados. Segundo ele, “o STF considerou que os mesmos mecanismos tecnológicos usados para direcionar anúncios com alto grau de precisão poderiam ser aplicados para identificar, bloquear e remover rapidamente tais conteúdos”.

 

Hipocrisia online

Quando confrontadas com esses crimes em suas páginas, as big techs se defendem com um discurso padrão de que não toleram essas práticas e que removem esse tipo de conteúdo. Mas os fatos demonstram o contrário.

No dia 14, a Reuters divulgou uma análise de um documento interno da Meta que indica que sua inteligência artificial deliberadamente pode manter conversas românticas e sensuais com crianças e promover racismo e informações médicas incorretas. A dona do Facebook admitiu a veracidade do documento, mas disse que retirou a permissão para as conversas de teor sexual com crianças pela sua IA.

Só que esse é um problema recorrente. Em outubro de 2021, por exemplo, Frances Haugen, ex-gerente do setor de integridade cívica do Facebook, divulgou milhares de documentos internos da empresa que revelavam como a plataforma priorizava seus lucros frente a práticas que causavam danos à sociedade, à democracia e à saúde mental dos jovens.

Quando a sociedade falha ao encontrar mecanismos razoáveis para esses abusos, podem surgir medidas extremas. É o caso da lei australiana que sumariamente proíbe o uso de qualquer rede social por menores de 16 anos. Aprovada em novembro de 2024, entra plenamente em vigor em 10 de dezembro desse ano, determinando que as plataformas impeçam esse uso, sob pena de multas equivalentes a R$ 175 milhões.

O cinismo das big techs e a inoperância dos parlamentares podem levar a indesejados extremos como esse. Enquanto isso, vemos o governo americano atacando o Brasil, a União Europeia e outros países para proteger os interesses dessas empresas.

No final, caímos de novo no surrado debate de defesa da liberdade de expressão, usurpada para defender interesses inconfessáveis. O mesmo artigo da Constituição que a garante também veda o anonimato, pois ela não é absoluta.

Mecanismos que garantem outros direitos individuais não ameaçam a liberdade de expressão, e sim criam uma sociedade segura, para uma coexistência pacífica e saudável. Posicionar-se contra isso demonstra uma profunda distorção cívica. O debate criado por Felca nos dá mais uma chance de fazermos o que é certo.

 

Patrick Hevesi e Oscar Isaka, do Gartner, durante a abertura da conferência sobre segurança e gestão de risco – Foto: divulgação

Euforia pela IA ajuda a transformar cibersegurança em pilar estratégico dos negócios

By | Tecnologia | No Comments

No dia 2 de julho, o Brasil acordou com a notícia do maior crime digital da sua história: o ataque à C&M Software, que desviou pelo menos R$ 800 milhões de instituições financeiras conectadas ao Pix. Não houve violação ao sistema, pois os criminosos fizeram as transferências usando credenciais legítimas de um prestador de serviços. Isso demonstra que a cibersegurança não pode mais se limitar à proteção da estrutura de TI, precisando envolver pessoas, dados e processos. A inteligência artificial destaca ainda mais o tema, que deve ser visto como um pilar dos negócios.

Essas foram algumas das principais conclusões da Conferência Gartner de Segurança e Gestão de Risco, que aconteceu em São Paulo nos dias 5 e 6 de agosto. A mensagem central do evento foi que gestores não podem ignorar ou combater a euforia em torno da IA, e sim usá-la como motor de mudanças planejadas que diferenciam líderes apenas reativos daqueles que realmente geram valor estratégico.

Essa visão já é realidade em mercados mais maduros e avança globalmente, inclusive no Brasil. Estudos do Gartner sugerem que, até 2026, metade dos executivos de alto escalão deverá ter indicadores de performance em cibersegurança atrelados aos seus contratos de remuneração, e isso não se restringe aos líderes de tecnologia.

Não dá para ser diferente. Os bandidos já usam a IA para sofisticar seus ataques, como na adoção de agentes de IA que imitam o comportamento humano para burlar proteções de segurança. Assim, a IA automatiza ameaças em grande escala.

Isso não afeta apenas grandes corporações. Com a “Internet dos humanos” evoluindo para dispositivos ligados às pessoas (e eventualmente controlando funções vitais, como um marcapasso conectado), hackers poderão ameaçar vidas remotamente.

Nesse cenário, a preocupação não deve ser se estamos seguros, e sim se estamos tomando medidas adequadas para mitigar ameaças dentro do nosso apetite de risco.


Veja esse artigo em vídeo:


Para isso, a implantação de uma governança eficaz é crucial. O primeiro passo é começar pequeno, evitando uma sobrecarga inicial de dados e incidentes. Em seguida, é fundamental identificar e priorizar riscos, atribuindo-lhes valor financeiro para orientar os investimentos. Outro ponto central é traduzir os riscos de dados em linguagem de negócio, facilitando o entendimento e o apoio da alta gestão.

“Usar a energia da mudança ou o entusiasmo das pessoas para alimentar nossa agenda é uma jogada de poder político no que as pessoas chamam de tempos interessantes”, explicou Oscar Isaka, diretor-sênior do Gartner. “Os incidentes cibernéticos associados à tecnologia exploratória estão atingindo os resultados financeiros, então os executivos estão prestando atenção à cibersegurança.”

O Gartner sugere que os executivos de segurança da informação trabalhem três pontos para conseguir isso. No primeiro eixo, devem demonstrar como os investimentos em segurança contribuem para os objetivos da empresa, usando transparência e dados, em vez de medo e incerteza.

Além disso, a segurança cibernética deve ser vista como um laboratório para experimentação com IA. Ao adotar essa tecnologia para análise de ameaças, a área de segurança não apenas mitiga riscos, mas também impulsiona as ambições de longo prazo da empresa em inteligência artificial.

Por fim, a agilidade nas mudanças é essencial, pois a IA amplia a superfície de ataque e os riscos, como ameaças internas potencializadas por ela. Nesse ponto, os profissionais devem ser treinados e ter autonomia. Assim, automatizarão tarefas repetitivas, enquanto desenvolvem novas habilidades para impulsionar o seu crescimento, tornando-se agentes resilientes da mudança.

Mas nada disso resolve se cuidados básicos com as pessoas não forem observados.

 

O fator humano

Os gestores precisam transformar o comportamento dos usuários, sejam eles funcionários ou clientes, para que a segurança se torne um hábito, e não uma obrigação imposta. E temos uma cultura muito pobre nisso.

Isaka deu como exemplo a naturalidade com que compartilhamos nosso CPF para descontos em farmácias ou até para abrir a comanda em um bar. “O CPF é o que nos torna cidadãos brasileiros”, alertou. Segundo ele, “se eu pegar seu CPF e informar na Receita Federal, eu saberei mais de você do que você mesmo!”

O mesmo vale para a banalização dos QR Codes, escaneados sem preocupação e que podem levar a pessoa a um site em que seus dados pessoais serão roubados. Isso se reflete no trabalho, onde funcionários podem, com a mesma displicência, inserir dados sensíveis da empresa em sites não seguros ou em plataformas de IA.

Essa falta de cultura torna as pessoas o elo mais fraco. Elas podem ver os controles de segurança como um obstáculo em seu cotidiano, procurando formas de contorná-los para “fazer seu trabalho mais rápido”, ou cometer erros por falta de atenção.

Segundo Paulo Aresta, analista-sênior do Gartner, a rigidez de algumas regras de segurança não é uma escolha, e sim uma consequência de uma cultura organizacional sem colaboração, comunicação eficaz ou uma visão de riscos e objetivos compartilhada entre a segurança e o negócio.

“Quando colocamos pressão na gestão de segurança, ela tende a ter dificuldades em ser aplicada de uma maneira objetiva e eficaz”, afirmou. Ele explicou que apenas 14% das empresas conseguem equilibrar a segurança e a agilidade para inovar e crescer.

Ninguém pode dizer que está seguro. O desafio das empresas é que, quando (e não “se”) ataques ocorrerem, elas não sejam pegas de surpresa. Os incidentes são inevitáveis, mas podem ter impactos minimizados com preparo e reação rápida.

Obviamente não dá para “nos proteger do futuro”, mas podemos nos tornar “prontos para o futuro”. Isso exige que tenhamos uma mentalidade que vá além das urgências do dia a dia, para podermos antecipar cenários disruptivos.

Afinal, o futuro está sempre em movimento. Não devemos buscar ser infalíveis, mas sim ágeis e resilientes para nos adaptarmos ao que vier.

 

“Degradação” do conteúdo de uma imagem por repetidas interações com a IA – Ilustração: Paulo Silvestre

IA ameaça modelo que sustenta a Internet e a própria existência da tecnologia

By | Tecnologia | No Comments

As primeiras plataformas de inteligência artificial generativa, como o ChatGPT, se aproximam de seu terceiro aniversário. Em tão pouco tempo, conseguiram a proeza de mudar a maneira como buscamos informação. Mas apesar de suas vantagens inegáveis, elas ameaçam seriamente a maneira como a Internet se organizou e ironicamente a própria sobrevivência desses sistemas.

Nos últimos 30 anos, redes sociais e buscadores construíram seus impérios de mídia com conteúdo alheio. Apesar de alguns produtores desse material, especialmente veículos de comunicação, contestarem o modelo, essa usurpação sempre foi justificada com essas plataformas encaminhando seus usuários aos sites dos autores, que faturam com publicidade.

Como a IA entrega respostas completas, as pessoas não precisam mais clicar nos links para se aprofundar. Isso está achatando a audiência e as receitas dos criadores de conteúdo, que tentam fazer com que as big techs paguem pelas informações. As empresas de mídia são as vítimas mais visíveis, mas o problema afeta todo mundo.

Os caminhos abertos pela inteligência artificial não têm volta. Mas a ganância sem limites e o desrespeito aos direitos autorais das gigantes de tecnologia podem, em médio prazo, matar sua “galinha dos ovos de ouro”, pois a IA precisa continuamente de novas informações confiáveis para continuar funcionando bem.

Se os atuais produtores de conteúdo quebrarem e novos não surgirem pelo risco de terem seu trabalho roubado por essas empresas, não haverá mais nada para alimentar a besta digital. E então o modelo pode entrar em colapso.


Veja esse artigo em vídeo:


Pela característica de dispensar os usuários de procurar em uma infinidade de sites o que precisam, o ChatGPT foi rapidamente apelidado de “assassino do Google”. Obviamente era um exagero, mas essa concorrência fez o gigante de buscas se mexer, passando a iniciar as suas páginas de respostas com informações geradas pela sua própria IA. E isso agravou ainda mais a situação dos criadores de conteúdo.

Não é pouca coisa. A consultoria de tráfego online Similarweb estima que as pesquisas em buscadores desabaram 15% de janeiro a junho. Os sites de ciência e educação viram 10% de seus visitantes sumirem. No caso dos serviços de referência (como a Wikipedia), a queda foi de 15%, enquanto páginas de saúde perderam 31%. Por outro lado, desde que o Google incluiu textos da IA nas suas respostas, as buscas relacionadas a notícias que não resultam em cliques aumentaram de 56% para 69%.

Grandes empresas de mídia têm feito acordos com as big techs para licenciar seu conteúdo para treinarem a IA. Outras estão processando os gigantes digitais. Mas grande parte do conteúdo que a alimenta vem de uma infinidade de autores sem condições de lutar por seus direitos. De todo jeito, juízes americanos, influenciados pelo presidente Donald Trump, cada vez mais favorecem as companhias do Vale do Silício.

A situação dos produtores de conteúdo deve piorar ainda mais com o plano nacional de inteligência artificial anunciado por Trump no dia 23. Embora não mencione explicitamente direitos autorais, ele endossa a ideia de que as plataformas de IA tenham acesso irrestrito a conteúdos para treinar seus modelos. Trata-se de uma flexibilização implícita das leis de copyright, favorecendo as big techs.

Antes disso, no dia 10 de maio, Trump já havia demitido Shira Perlmutter, chefe do Escritório de Direitos Autorais, após a publicação de um relatório do órgão que questionava o treinamento de IAs com materiais protegidos por direitos autorais. O documento concluiu que isso ultrapassa os limites do uso justo na maioria dos casos.

Outra dor de cabeça criada pela IA para os autores deriva da facilidade de qualquer um produzir todo tipo de conteúdo. Um exemplo emblemático vem das plataformas de streaming de música, que estão sendo inundadas com novas músicas de baixa qualidade geradas por robôs. Cerca de 20 mil dessas trilhas são enviadas diariamente ao Deezer, 18% de todo o conteúdo recebido atualmente e o dobro do visto no início do ano. Como são feitas para agradar aos algoritmos que sugerem músicas aos usuários, elas tiram audiência e dinheiro dos músicos humanos.

 

Todos perdem, menos a IA

Os usuários também perdem muito com esse movimento, e isso começa por consumirem mais conteúdo de baixa qualidade, sejam texto, imagens ou músicas. Isso acontece porque, ao contrário das respostas convencionais de um buscador, em que as pessoas visitam sites criados com curadoria humana, a crescente produção da IA segue apenas os critérios da máquina.

Isso se complica com essas plataformas usando cada vez mais conteúdos gerados pela própria IA no seu treinamento. Assim, algo ruim criado por robôs leva a versões ainda piores no futuro. Para entender isso, basta fazer o exercício de pedir que a IA elabore uma imagem a partir de um original, depois uma terceira a partir da sua criação, e assim sucessivamente. A cada interação, a qualidade se degrada e se afasta da informação original.

Há outro problema ainda mais grave: a IA erra muito no que produz, mas as pessoas não percebem essas falhas. Já ficou comum dizer que é necessário fazer boas perguntas para se obter boas respostas dos robôs, mas pouca gente entende que precisa também ser capaz de analisar a qualidade do que eles entregam.

Aceitamos passivamente o que a IA nos empurra. Isso faz com que usemos mais informações erradas no nosso cotidiano, pois estamos nos tornando preguiçosos para verificar as informações e –pior– elaborar raciocínios e estratégias.

Claro que não proponho que a IA deixe de ser usada, pelo contrário! Mas ela deve ser bem utilizada. E os produtores daquilo que é apropriado para saciar sua fome infinita por informação devem ser remunerados de forma justa. Se as big techs quiserem continuar usando conteúdo alheio para viabilizar seu negócio multibilionário, deveriam, no mínimo, pagar a eles o que estão deixando de faturar graças à IA.

Em vez disso, essas gigantes preferem usar o poder do governo americano para aniquilar quem busca essa relação mais justa. Assim, os autores devem encontrar outras formas de remuneração, e então decidir se querem bloquear o acesso dos robôs ao que fazem.

Essa é uma questão ética, que impacta todas as pessoas seriamente na qualidade do conteúdo que consomem e em como pensam. Em um mundo ideal, os humanos poderiam obter informações gratuitamente, enquanto as plataformas de IA pagariam uma fortuna por elas. Ou então as big techs deveriam oferecer seus melhores produtos gratuitamente a todo mundo.

Mas isso elas jamais farão!

 

O presidente americano Donald Trump tenta desequilibrar a geopolítica usando a inteligência artificial - Ilustração: Paulo Silvestre

Plano de IA dos EUA adota caminho perigoso para superar China

By | Tecnologia | No Comments

O plano de inteligência artificial americano, divulgado na quarta passada (23), merece nossa atenção. Apesar dos grandes avanços da China, os EUA ainda lideram nessa tecnologia. Assim, suas ações influenciam a IA no mundo. Além disso, mecanismos da proposta podem impedir o Brasil de acessar tecnologias de ponta. Mas o que mais preocupa é a escolha de uma política de desenvolvimento irresponsável e perigosa.

A nova Guerra Fria acontece em torno da inteligência artificial. No anúncio do chamado “Plano de Ação de IA dos EUA: Vencendo a Corrida”, o presidente americano, Donald Trump, não economizou palavras para deixar isso claro.

Em suas 28 páginas, o documento se concentra em três pilares: acelerar a inovação em IA, construir infraestrutura americana, e liderar a diplomacia e segurança internacionais no setor. Eles atendem diretamente a demandas das big techs, como OpenAI, Google, Meta e Microsoft, que combatem ferozmente qualquer restrição a seus produtos, nos EUA e principalmente no exterior.

Essas regras vêm principalmente da Europa, mas também estão sendo criadas ao redor do mundo, inclusive no Brasil. Por aqui, o Marco da IA, aprovado pelo Senado Federal e francamente inspirado na Lei da IA europeia, está sendo discutido na Câmara. Por lá, Trump revogou a ordem executiva do governo anterior, que previa uma avaliação de risco no desenvolvimento de IA, e ameaça retirar recursos de Estados que tenham leis mais restritivas, como a Califórnia.

A nova diretriz manda às favas a prudência recomendada pelos maiores especialistas em IA do mundo. É um documento mais político que técnico, acenando aos eleitores mais radicais de Trump e às gigantes de tecnologia, essenciais para seus planos.

A IA não pode ser vista como apenas “mais uma tecnologia”. Sua evolução desafia os próprios desenvolvedores e ela pode facilmente ser usada para criar severos danos à humanidade. Ao tratá-la de forma política, esses riscos crescem exponencialmente.


Veja esse artigo em vídeo:


Trump quer transformar os EUA em um território livre para o avanço da IA, eliminando o que considera “barreiras regulatórias desnecessárias”. O novo plano prevê revisar ou suprimir normas federais que limitariam a inovação, incentivando a atuação do setor privado, ao promover a desburocratização em todas as áreas ligadas à IA.

A estratégia também altera diretrizes técnicas e regulatórias, retirando referências a diversidade, inclusão, mudança climática e desinformação dos guias federais. A justificativa é garantir que os sistemas de IA promovam a liberdade de expressão e reflitam “valores americanos”, do ponto de vista conservador. Para Trump, a IA deve buscar a objetividade, sem filtros que comprometam sua função de transmitir “a verdade”. E isso, por si só, é temerário, pois a IA reconhecidamente erra, e muito.

O documento incentiva a construção de data centers, fábricas de semicondutores e infraestrutura energética, essenciais para a liderança dos EUA no setor. Para isso, propõe simplificar licenças ambientais, criar exceções dentro do marco regulatório e até permitir o uso de fontes de energia “sujas”, como termelétricas, ignorando seu impacto. A meta é garantir velocidade na expansão da infraestrutura física que sustenta a IA, mesmo que isso signifique driblar normas ecológicas.

Embora o plano não mencione explicitamente os direitos autorais, ele endossa a ideia de que as plataformas de IA tenham acesso irrestrito a conteúdos para treinar seus modelos. Ao defender que obstáculos legais sejam eliminados, abre caminho para que obras protegidas, como livros, músicas e imagens, sejam usadas sem consentimento dos autores. Trata-se de uma flexibilização implícita das leis de copyright, favorecendo as big techs e colocando em risco a remuneração e os direitos de criadores.

Pela proposta, os EUA exportarão seus modelos, softwares e equipamentos de IA apenas a países aliados, garantindo que eles adotem padrões americanos. Ao mesmo tempo, impedirão que adversários tenham acesso a tecnologias sensíveis. Essa política transforma a IA em instrumento de influência internacional, usando sua distribuição como ferramenta diplomática e de contenção estratégica.

O Brasil pode ser ainda mais pressionado pelos EUA, para se submeter aos interesses das big techs. Caso contrário, podemos ser impedidos de ter acesso a tecnologias de ponta e de firmar colaborações de pesquisa e comerciais.

 

“Vieses ideológicos” na IA

Vale notar que o que o governo americano chama de “eliminar vieses ideológicos” na IA significa filtrar suas respostas, para remover conteúdos que considera inadequados. Ironicamente, isso inclui um viés ideológico. Mas tentativas anteriores de se fazer isso não funcionaram: as plataformas continuaram criando respostas que os extremistas não aprovavam por serem moderadas e promoverem diversidade.

Alguns episódios mancharam a reputação de plataformas quando foram lançadas, como quando o gerador de imagens da IA do Google incluiu negros e japoneses entre soldados nazistas. Nesses casos, a diversidade gerou erros de informação histórica. Mas fica difícil eliminar a variedade da vida “na marra”, quando a maioria dos conteúdos usados para treinar a IA tem natureza diversa. Seria necessário eliminar todas essas informações da base, o que é inviável.

O temor é que, ao insistir nisso, as plataformas de inteligência artificial americanas passem a se comportar como as chinesas no que elas têm de pior: a censura explícita. Sistemas como o DeepSeek deliberadamente não abordam assuntos que o governo de Pequim reprova, apesar de serem capazes de dar boas respostas sobre eles.

O novo plano americano reconhece explicitamente que os sistemas de IA podem representar riscos em áreas como ciberataques, desenvolvimento de armas de toda natureza e vulnerabilidades de segurança. Por isso, propõe que os EUA compreendam essas ameaças, que estarão nas mãos de adversário em breve.

Esses riscos e a politização da IA sintetizam os problemas dessas regras, com uma geopolítica agora fortemente vinculada à inteligência artificial. Não se espera muito da China, um país que pratica a censura abertamente e que atropela a ética e até o bom senso para roubar a liderança política e econômica dos EUA.

Os americanos sempre se contrapuseram a isso, e, pelo menos em tese, mantinham sua influência global por exemplos considerados positivos na ciência e nos negócios. Agora agirão nos termos chineses, por medo de serem ultrapassados por eles.

Assim o mundo vê suas duas maiores potências em um vale-tudo explícito, com consequências imprevisíveis. O desenvolvimento irresponsável ou descuidado da IA pode promover uma manipulação sem precedentes, achatar o senso crítico das pessoas e até concretizar alguns cenários distópicos da ficção científica.

 

Para Donald Trump, o Pix é uma “prática desleal” brasileira - Foto: National Archives and Records Administration/Creative Commons

O que ainda une os brasileiros em tempos de polarização digital

By | Tecnologia | No Comments

A sociedade brasileira hoje difere muito do que era há 20 anos. Sempre tivemos divisões enraizadas em nossa cultura, algumas profundamente nocivas para determinados grupos sociais e prejudiciais ao desenvolvimento da sociedade como um todo. Mas em tempos sem smartphones e principalmente sem redes sociais, aparentávamos viver em harmonia, ainda que mais frágil do que acreditávamos.

A completa disseminação desses produtos digitais criou, nos anos seguintes, uma profunda rachadura na sociedade que inviabiliza o debate entre aqueles que se posicionam nos extremos opostos. Caiu por terra o mito do brasileiro cordial e colaborativo, dando lugar à intensa polarização.

As causas disso sempre estiveram entre nós, nutridas no íntimo de extremistas antes contidos pelas regras da civilidade. Os algoritmos das redes sociais destravaram essas forças ao juntar quem tem os mesmos valores, e os smartphones passaram a reforçar essas ideias o tempo todo. Não demorou para que políticos de várias ideologias se apropriassem dessa polarização, criando uma espiral destrutiva da qual não saímos.

Resta algo que ainda une os brasileiros? Nem a seleção de futebol, antes uma unanimidade, consegue fazer isso hoje.

Nesse cenário, as absurdas exigências do presidente americano ao Brasil, feitas na semana passada, merecem atenção. Apesar de ter provocado forte indignação na maioria dos brasileiros, nem Donald Trump conseguiu unir a todos nós.

Ainda assim, vale analisar aquelas que defendem os interesses das big techs e atacam conquistas tecnológicas e de proteção aos cidadãos do Brasil. Afinal, o Pix, criticado por Trump, é uma unanimidade nacional.


Veja esse artigo em vídeo:


De fato, do ponto de vista econômico e político, não há justificativa racional para as grotescas agressões do americano, algo sem precedentes nos 200 anos de boas relações entre os dois países. E a proteção explícita das plataformas digitais, que fere severamente a soberania brasileira, não vem ao acaso, amplificando as reclamações de empresas que não querem ver seus enormes privilégios ameaçados.

Não se trata apenas dos ganhos bilionários. Smartphones, redes sociais e agora inteligência artificial permitem profunda manipulação das massas, influenciando fortemente a geopolítica. Esses setores estão prestes a ser regulados no Brasil, a exemplo do que já acontece em outras partes do mundo. Por isso, o lobby de empresas como Meta, Google e Amazon busca convencer o governo americano de que um país lhes impor regras significa um ataque aos interesses americanos.

Elas sabem que são estratégicas para a economia dos EUA. Por outro lado, o Brasil é um mercado muito importante para as essas plataformas, pela quantidade de clientes e pelo comportamento digital do brasileiro, que lhes garante receitas monumentais. Por isso, limitações ou regulamentações por aqui podem influenciar outros países a adotarem legislações similares, restringindo a atuação global dessas companhias.

Isso explica por que as ameaças americanas também miraram a Lei Geral de Proteção de Dados (LGPD). Elas afirmam que a proteção aos dados dos cidadãos brasileiros atrapalha “objetivos comerciais de rotina” das empresas americanas, exigindo que aceitemos os padrões de privacidade dos EUA como “adequados”.

Mas a LGPD não é um entrave, e sim um selo de qualidade que posiciona o Brasil como um parceiro sério na economia digital. Enfraquecê-la seria renunciar a uma conquista civilizatória compatível com as melhores práticas globais e, aliás, uma das poucas defesas do cidadão frente ao poder dos algoritmos e da vigilância digital.

Mas talvez o que mais tenha chocado foram os ataques ao Pix, rotulado de “prática desleal nos serviços de pagamento eletrônico”. Novamente, buscam proteger os interesses de gigantes americanas, como Visa, Mastercard, Google, Apple e Meta, contra os da população brasileira.

 

Orgulho nacional

Trump reclama que o Pix foge do controle dessas companhias e é gratuito, o que as prejudica, pois dependem de taxas de transação para lucrar. E ele teme que o sistema brasileiro evolua para uma plataforma de transações internacionais, servindo como alternativa ao dólar em determinados contextos comerciais.

O Pix é um caso de inovação tecnológica brasileira que é referência mundial. Ele funciona, é eficiente e é nosso. Por isso, evoca um sentimento de orgulho nacional baseado em competência, não em símbolos vazios. Acabar com ele ou mesmo desincentivá-lo seria um retrocesso absurdo, pois ele é um instrumento de inclusão financeira, de modernização do Estado e de democratização do acesso bancário.

Não é de se estranhar, portanto, que as bravatas de Trump tenham aumentado a união dos brasileiros, ainda que circunstancialmente. Precisamos garantir essas conquistas e avançar na regulamentação das big techs. Isso não busca censura ou tecnofobia, mas garantir que os direitos humanos, o debate público saudável e a integridade das instituições democráticas sejam preservados em um ambiente digital que foi sequestrado pelo engajamento e pelo lucro a qualquer custo.

Ironicamente, esse embate internacional pode nos ajudar a entender que precisamos resgatar a escuta de quem pensa diferente, sem ataques. E isso começa em cada um de nós. A polarização só se sustenta se houver plateia para o confronto.

Nosso engajamento político, cultural e social deve sair do automático. A educação midiática precisa ser um projeto nacional. Sem isso, as tentativas de regulamentação podem parecer autoritárias para uma população que não entende por que isso importa.

O que ainda pode nos unir são valores compartilhados que sobrevivem à polarização, como o desejo de viver com dignidade, a rejeição à corrupção, o orgulho por inovações locais e o carinho por símbolos culturais. Paradoxalmente, as mesmas redes sociais que nos dividem podem reconstruir contatos. Mas isso exige que deixemos de ser meros usuários e passemos a ser cidadãos digitais conscientes.

A união nacional não virá “de cima”, de instituições, empresas ou governos, nacionais ou estrangeiros. Ela deve surgir de nós mesmos, quando soubermos olhar para o outro sem medo e sem ódio. E então poderá acontecer até ao defendermos juntos algo pontual, como o Pix, ou algo complexo, como a democracia.

 

A personagem Marisa Maiô, criada por inteligência artificial, satiriza os programas de auditório - Foto: reprodução

Vídeos criados por IA atolam a sociedade no lamaçal da confiança na mentira

By | Jornalismo, Tecnologia | No Comments

Os mais recentes geradores de vídeo por inteligência artificial, lançados nas últimas semanas, põem o nosso discernimento à prova. Simplesmente não é mais possível saber o que é real! A impressionante capacidade de geração dessas plataformas permite que uma mentira suculenta se torne mais crível que uma verdade tristemente limitada pelos fatos, até para olhos treinados.

Isso era “crônica de uma morte anunciada”: todo mundo sabia que a tragédia aconteceria, mas ninguém fez nada para evitá-la. E se já não bastasse todo tipo de lixo produzido por IA sendo destacado pelos algoritmos das redes sociais (ao mesmo tempo que escondem bons conteúdos), esse recurso já é usado para enganar a população de maneira voraz, especialmente na política.

Já é bem ruim pessoas que não existem fazendo de tudo nos vídeos. Mais grave, entretanto, é ver, diante de nossos olhos, pessoas reais em atividades que nunca realizaram, muitas vezes comprometedoras.

Essa tecnologia já existe há algum tempo, mas, até então, seus desenvolvedores limitavam seu uso a pouquíssimos especialistas, enquanto buscavam maneiras para evitar que ela fosse usada indevidamente, uma precaução muito bem-vinda. Mas parece que agora mandaram os escrúpulos às favas, como se vê, aliás, em muitas outras atitudes das big techs desde o começo deste ano.

Quando tudo pode ser simulado com perfeição e quando passamos a desconfiar até do que é real, cria-se um ambiente de paranoia e cinismo. Essa erosão da confiança coletiva pode levar as pessoas a rejeitarem fatos documentados e a se refugiarem em teorias conspiratórias. E assim a democracia vai dando lugar à barbárie.


Veja esse artigo em vídeo:


A responsabilização é um ponto nevrálgico nesse dilema. Quem responde por um uso daninho dessa tecnologia: o criador do vídeo, a plataforma que o hospedou ou a empresa dona do algoritmo? Diante da ausência de regulamentação da inteligência artificial e das redes sociais, ninguém assume as falhas.

As big techs responsáveis por essas plataformas investem pesado no lobby para que tudo continue assim. Afinal, esse cenário de impunidade é muito bom para seu negócio, seja pela infinidade de conteúdos criados e distribuídos assim, seja pelo estímulo a um desenvolvimento descuidado dessas tecnologias. Para elas, quanto menos regras, melhor.

Claro que nem todos os vídeos criados com IA são nocivos. Um bom exemplo de seu uso para fins humorísticos são os programas da apresentadora Marisa Maiô. Criada como uma brincadeira para testar a tecnologia por Raony Phillips, a personagem satiriza programas de auditório e faz um enorme sucesso nas redes.

Apesar de sua proposta inofensiva, muita gente pode achar que ela é mesmo uma mulher e que seu programa passa em algum canal. Isso demonstra a responsabilidade dos criadores de conteúdo com o que geram com a inteligência artificial.

Em tese, todas essas plataformas possuem mecanismos para que não sejam usadas em práticas condenáveis, mas eles não garantem nada. Por isso, outro grave problema é o uso indevido da imagem de pessoas comuns retratadas em conteúdos pornográficos ou vexatórios, muitas vezes para extorsão ou vingança. Mesmo figuras públicas, que têm menos controle sobre sua imagem, enfrentam dificuldades para lidar com problemas derivados desses conteúdos, pela velocidade com que se espalham.

Não por acaso, em janeiro de 2024, o Fórum Econômico Mundial concluiu que a desinformação impulsionada por inteligência artificial será o risco mais severo para a humanidade nesse ano e no próximo.

 

Diversão e responsabilidade

Àqueles que defendem esse uso irrestrito da IA como um caminho inevitável do progresso, é preciso lembrar que inevitabilidade não justifica irresponsabilidade. O avanço tecnológico é constante, mas o modo como o usamos define os valores da sociedade que queremos construir.

Marisa Maiô e outras criações mostram o grande potencial da IA para a diversão, e isso atrai as massas. Não há nenhum problema em rir com gatinhos tocando Chopin no piano, mas essa banalização do irreal está destruindo a característica de documentação que o vídeo sempre teve, assim como já aconteceu com a fotografia.

Uma sociedade não se desenvolve sem ter algo para confiar. Se a qualidade técnica de um vídeo não servir mais de medida para isso, precisaremos encontrar outra.

O jornalismo profissional pode recuperar o posto de porto-seguro da informação, com trabalhos sérios de apuração e divulgação. Justamente ele, que vem sendo combatido há anos por aqueles que mais se beneficiam de usos criminosos dessas tecnologias, tentando se escudar depois na “liberdade de expressão”. Isso não é uma coincidência!

A imprensa precisa fazer a sua parte garantindo produtos de qualidade. Mas também é necessário que as pessoas recebam uma melhor educação midiática, que lhes permita diferenciar mais facilmente verdades de mentiras, mesmo as mais críveis.

A forma como uma tecnologia é concebida, distribuída e adotada carrega intencionalidades. Ao se criar uma ferramenta capaz de simular pessoas com perfeição, sem mecanismos nativos de identificação ou rastreio, a pretensão de neutralidade das big techs desaparece. A ética não pode ser um detalhe técnico, pois é a linha que separa a inovação do controle das massas.

A defesa de que essa tecnologia seja liberada sem critérios significa fechar os olhos para os desequilíbrios de poder. Ignorar os riscos ou tratá-los como “efeitos colaterais” do progresso é uma postura não apenas ingênua, mas perigosa. Afirmações sobre o uso irrestrito ser “inevitável” são maneiras cômodas de se eximir da responsabilidade.

Esse tipo de determinismo tecnológico ignora o fato de que toda inovação carrega consigo escolhas humanas, com impactos concretos sobre vidas, direitos e estruturas sociais. Assim como não permitimos o uso irrestrito de armas ou remédios, não dá para liberar tecnologias tão poderosas sem limites, critérios ou consequências.

Mas é o que está acontecendo, e deve acontecer cada vez mais, contando com aplausos de parte da população que insiste em ver apenas os inegáveis benefícios da tecnologia. Por isso, esses impactos devem ser amplamente discutidos. Afinal, não é porque ganhamos um carro superveloz que podemos abrir mão de seus freios. Se fizermos isso, não chegaremos vivos ao nosso destino.

 

IA nos força a questionar como ela colaborará conosco no mundo do trabalho - Foto: Freepik/Creative Commons

Mais do que substituir trabalhadores, IA pode redefinir o conceito de trabalho

By | Tecnologia | No Comments

De um lado, temos empresas procurando os melhores profissionais para ocupar suas vagas. Do outro, pessoas buscam seus empregos dos sonhos. No meio disso, a inteligência artificial surge como uma aliada poderosa aos dois grupos. Mas o abuso desses recursos também pode trazer problemas éticos e de confiabilidade.

Segundo o relatório “Agentes de IA na prática: Como a inteligência artificial está transformando a gestão de pessoas”, divulgado na semana passada pela plataforma de recrutamento Gupy, 65% das empresas no mundo e 48% no Brasil já usam a IA em processos seletivos. Além de redução de custos e tempo nas contratações, ele indica que a IA pode reduzir a rotatividade e até aumentar a diversidade nas equipes.

Isso contraria problemas conhecidos da IA no setor, como sistemas enviesados na avaliação de profissionais e falta de transparência nas escolhas. A solução recai no uso de uma IA concebida, desde o princípio, para a mitigação sistêmica desses problemas, com justificativas claras e mantendo humanos nas decisões.

Mas nem todas empresas e candidatos se preocupam com isso. Por exemplo, muitas pessoas usam a tecnologia para alterar seus perfis, fazendo com que pareçam mais alinhados com as vagas do que realmente são. Também utilizam robôs para enviar candidaturas em massa. Segundo o LinkedIn, essas práticas ajudam a explicar o expressivo aumento de 45% nas candidaturas na plataforma no último ano.

Obviamente o impacto da IA no mundo do trabalho vai além de processos de RH e do medo de profissionais de que seus trabalhos sejam “roubados” por uma máquina. Mesmo com os benefícios que a tecnologia traz, ela exige habilidades que nem todos conseguem ter, além de alterar radicalmente a maneira como os trabalhos são feitos.

Não se pode ignorar a natureza substitutiva de funções da IA. Portanto, mais que oferecer ferramentas, sua chegada está redefinindo o que é trabalhar.


Veja esse artigo em vídeo:


O polido discurso do Vale do Silício que promete “aprimorar” trabalhadores e libertá-los de “tarefas rotineiras” desmorona diante da sinceridade brutal de startups como a americana Mechanize. Sua proposta é clara: automatizar totalmente o trabalho, mesmo que isso provoque demissões em massa. Tudo em nome da eficiência.

Para isso, a empresa usa a técnica de “aprendizado por reforço”, a mesma que as big techs usam para melhorar os resultados de suas plataformas de IA. Mas seus fundadores acreditam que ainda levarão pelo menos 10 anos para atingir seu objetivo.

“Essa expansão está acontecendo em uma velocidade jamais vista, não havendo tempo para as organizações, as escolas, as universidades e as pessoas se prepararem”, afirma Marcelo Graglia, professor da PUC-SP e diretor do Observatório do Futuro do Trabalho da universidade. “Isso vem interferindo na saúde mental e do trabalho das pessoas, gerando um adoecimento coletivo”, acrescenta.

Para ele, há uma romantização da IA, exaltando seus benefícios e ocultando os seus riscos. Não se trata de demonizar a tecnologia ou impedir o seu avanço, mas é preciso avaliar conscientemente os problemas que ela traz e criar mecanismos para minimizá-los. Esse discurso de “aprimoramento profissional” só se sustenta, segundo o pesquisador, porque pouca gente realmente entende a tecnologia.

Além da substituição de profissionais por robôs, um fenômeno que cresce aceleradamente é a dos trabalhos híbridos, em que humanos e a IA dividem tarefas, gerando mais produtividade. Isso é outro ótimo benefício com uma contrapartida negativa, pois a tendência é que, mesmo em funções que não sejam extintas, serão necessários menos profissionais para cumprir seus objetivos.

 

Aumentando desigualdades

Essa reconfiguração aprofunda e diversifica as desigualdades. Elas começam no fosso crescente entre países que dominam a tecnologia e os que não a dominam, que está provocando uma nova Guerra Fria. Até entre cidades de uma mesma região, as que se tornam polos tecnológicos atraem mão de obra qualificada e investimentos.

Empresas que investem nessa transformação digital podem obter ganhos de até 30% em custos operacionais, ampliando sua vantagem competitiva. E a corda arrebenta no nível das pessoas, com estudantes de escolas de elite adotando IA e robótica desde cedo, enquanto os das públicas ficam alijados desse conhecimento, agravando a desigualdade na formação e, consequentemente, na vida profissional desses jovens.

Com tudo isso, uma massa de trabalhadores ficará “do lado de fora” desse novo mercado. Além disso, voltando ao uso da IA em avaliações de desempenho, implantações malfeitas podem levar à dispensa de bons profissionais e à criação de ambientes de trabalho “esquizofrênicos”, onde a meta não será mais “ser bom”, mas “parecer bom” para um algoritmo desprovido de bom senso e de compaixão. Por isso, propostas como as da Gupy, de mitigar vieses, privilegiar a transparência e manter as decisões na mão de humanos são bem-vindas em um mundo de forte automação.

“Alguns dizem que, com a automação, sobrará mais tempo para atividades criativas e descanso, mas a realidade não bate com esse discurso”, afirma Graglia. Segundo ele, os ganhos de produtividade nunca geraram menos trabalho, e agora a digitalização faz com que as tarefas invadam os tempos de descanso, de lazer e de estudo.

O pesquisador explica que o trabalho inventivo deve aumentar apenas para poucas pessoas, que já desempenham funções mais estratégicas e criativas. “Mas a grande massa de trabalhadores no mundo não tem esse perfil, e, para eles, simplesmente não se aplica essa lógica”, conclui.

Mais do que temer a máquina, é preciso, portanto, questionar o modelo de sociedade que estamos moldando a partir dela. A IA pode, sim, ampliar a produtividade e democratizar oportunidades, mas isso só será possível se enfrentarmos com coragem os dilemas éticos, sociais e humanos que ela impõe. Caso contrário, estaremos apenas transferindo velhas desigualdades para um novo ambiente, agora automatizado e ainda mais difícil de contestar.

Talvez a reflexão mais importante não seja, então, quantos empregos a IA eliminará, mas que tipo de trabalho e de trabalhador queremos valorizar. Mais do que uma tecnologia, a inteligência artificial está se tornando o espelho de nossas escolhas coletivas.

 

Jovens prestam vestibular: medo e pressão atrapalham a escolha da carreira na Geração Z – Ilustração: Paulo Silvestre

Custos, retorno menor, desigualdade e inteligência artificial ameaçam valor da universidade

By | Educação | No Comments

Historicamente, o diploma de um curso superior era o passaporte para um emprego bem remunerado, que garantia um padrão de vida alto. Porém, mudanças no mercado de trabalho, novos interesses dos jovens e o avanço da inteligência artificial estão provocando questionamentos inéditos sobre dedicar anos à universidade.

Esse é um fenômeno global, mas com nuances locais. No Brasil, a universidade ainda guarda um forte valor simbólico e prático de ascensão social e profissional. Mas uma pesquisa da Universidade Presbiteriana Mackenzie revelou que o ensino superior precisa mudar para manter isso diante de jovens que buscam formações alinhadas a seus valores e conectadas às transformações sociais, culturais e tecnológicas.

Nos Estados Unidos, a situação é mais dramática. Um levantamento da plataforma de empregos Indeed indicou que 51% dos jovens da Geração Z (nascidos entre 1997 e 2012) consideram a universidade um “desperdício de dinheiro”, contra 41% dos millennials (entre 1981 e 1996) e 20% dos baby boomers (entre 1946 e 1964).

Não é para menos. Os custos dos cursos universitários na terra do Tio Sam dobraram desde o ano 2000, enquanto os salários cresceram muito menos. Muitos profissionais precisam trabalhar até 20 anos para pagar pela sua formação. E por lá, a diferença entre a média dos salários das pessoas com e sem ensino superior não para de cair.

A explosão da inteligência artificial generativa ampliou esse dilema. Cada vez mais profissionais acham que saber operar bem essa tecnologia pode dispensá-los de fazer uma faculdade. Por outro lado, empresas estão contratando menos profissionais recém-formados, pois os gestores acreditam que a IA pode fazer tudo que eles fariam.

Essa “tempestade perfeita” pode levar a uma sociedade cada vez menos crítica, com profissionais incapazes de descobrir algo novo e dependentes da IA. Mas há esperança, e ela passa justamente pela transformação das universidades.


Veja esse artigo em vídeo:


Para Ana Lúcia de Souza Lopes, pesquisadora do programa de Educação, Arte e História da Cultura, que participou da pesquisa do Mackenzie, muitos jovens da geração Z, que cresceram vendo a tecnologia desconstruindo profissões tradicionais, preferem ser influencers ou gamers, que não exigem longas formações. “Uma das coisas que nos chamou muita atenção é a questão do medo, da pressão, da confusão sobre o processo de aquisição de conhecimento e até de pensar em uma carreira”, explica.

A pressão por decidir o futuro ainda no Ensino Médio se choca com uma geração emocionalmente frágil, bombardeada por narrativas instantâneas e espetaculares nas redes sociais. Isso reforça os “nem-nem”, jovens que não estudam nem trabalham. No Brasil, esse grupo se amplia em ritmo preocupante, refletindo uma realidade global de desalento profissional precoce.

A reforma do Ensino Médio, já em sua terceira versão, ampliou o abismo entre alunos das redes pública e privada. Enquanto escolas particulares focam no vestibular, a educação pública foi fragmentada em itinerários formativos que deixaram alunos menos preparados para o ensino superior.

Com isso, temos jovens privilegiados que fazem múltiplas graduações, buscando formação interdisciplinar. Por outro lado, cresce uma massa que busca alternativas em cursos técnicos, certificações digitais ou simplesmente desiste.

A substituição de recém-formados pela inteligência artificial cria um perigoso paradoxo profissional. Afinal, para se tirar bom proveito dela, é preciso saber o que e como lhe pedir, algo que se aprende na universidade e com experiência profissional. Mas se as empresas não contratam mais esses jovens, como esperam ter profissionais experientes no futuro, para operar a IA? Ninguém nasce sabendo!

É mais uma miopia que engrossa esse caldo, ameaçando a trajetória das pessoas, a sobrevivência das empresas e o desenvolvimento da sociedade. Com isso, corremos o risco de ter, em alguns anos, não mais uma massa de desempregados, mas de “inempregáveis”, pessoas que não terão habilidades para realizar qualquer trabalho.

 

Para que serve a universidade

Lopes reforça o risco de se olhar para a universidade de forma apenas utilitarista. A sociedade está reduzindo a educação a uma transação comercial, em que se investe tempo e dinheiro para se receber um emprego. Mas quando essa equação não se sustenta, o sistema entra em colapso.

“A universidade tem toda uma dinâmica de vivência que contribui para a formação de quem é esse profissional”, afirma a pesquisadora. Para ela, “isso é muito importante na formação desse humano que pensa e que precisa entender a complexidade do mundo, enxergando os dilemas da sociedade”.

O fenômeno de desvalorização da universidade é, portanto, complexo e multifacetado. Há exagero e desinformação, ampliados por sensacionalismo nas redes sociais e por influenciadores que vendem a falsa ideia de que bastam carisma e um celular para enriquecer. Mas também há falhas reais, como currículos “engessados”, modelos pedagógicos ultrapassados e pouca conexão com os dilemas contemporâneos.

Isso pode nos levar a uma elite cada vez mais poderosa, conectada e formada globalmente, e a uma grande maioria deslocada, desorientada e sem as ferramentas básicas para se posicionar no mundo. E isso cria uma “bomba-relógio social”.

A sociedade precisa se unir para solucionar o problema. As universidades devem flexibilizar seus currículos, sem dispensar a profundidade crítica. Escolas precisam se reconectar com a realidade e formar cidadãos, não apenas candidatos ao vestibular. Empresas devem reavaliar o uso da IA, abrindo espaço para aprendizes e fomentando programas de desenvolvimento de talentos. Por fim, o governo deve garantir equidade no acesso ao ensino de qualidade, especialmente para os mais vulneráveis.

Paradoxalmente, a própria IA reforça a importância das competências desenvolvidas em um bom curso superior. Enquanto algoritmos executam tarefas repetitivas, humanos precisam definir estratégias, tomar decisões éticas e navegar por complexidades que máquinas não compreendem. Profissionais com formação sólida estão mais bem preparados para comandar a IA, e não serem comandados por ela.

A escolha não pode recair, portanto, entre fazer faculdade ou se apoiar na tecnologia, mas entre ser protagonista ou coadjuvante da própria carreira e da vida. Em um mundo em que máquinas fazem cálculos probabilísticos incríveis, humanos bem formados fazem a diferença ao definir quais desses cálculos realmente importam.

 

Mitali Mukherjee, diretora do Reuters Institute, Richard Fletcher (centro) e Nic Newman, autores do Digital News Report - Foto: reprodução

Influenciadores e IA ocupam espaço deixado pelo jornalismo e ameaçam a verdade

By | Jornalismo | No Comments

Nunca consumimos tanta informação e nunca estivemos tão longe da verdade. Essa é uma das principais conclusões do Digital News Report, estudo sobre o jornalismo publicado anualmente pelo Reuters Institute, divulgado no dia 16. E essa constatação, longe de interessar apenas a profissionais de comunicação, exige ações de toda a sociedade.

A edição desse ano mostra que as pessoas continuam se informando cada vez mais pelo meio digital (especialmente smartphones) e menos por mídias tradicionais, uma tendência observada há uma década. Mas vale notar que, mesmo online, a imprensa perde espaço, enquanto influenciadores crescem. E pela primeira vez o estudo identificou o uso da inteligência artificial como fonte de noticiário, adotada por 7% dos entrevistados.

Apesar do crescimento desses influenciadores, com 44% dos jovens de 18 a 24 anos os considerando como sua principal fonte de notícias, 47% da população declara que eles são os maiores criadores e propagadores de informações falsas ou enganosas, equiparando-os a políticos. No caso da IA, 41% dizem que notícias geradas por robôs têm menos valor do que as produzidas por jornalistas, preferindo conteúdos com curadoria e apuração humana.

Estamos diante de um paradoxo inquietante: mesmo com 58% dos entrevistados se dizendo preocupados com sua capacidade de distinguir entre verdade e mentira, o público se informa cada vez mais por influenciadores.

Isso é grave, pois as pessoas, mais ou menos conscientemente, estão decidindo se informar por fontes que reconhecem oferecer conteúdo enviesado ou falso. Por outro lado, os jornalistas, mesmo buscando a verdade, não conseguem se conectar com o seu público como antes. E as duas coisas representam sérios riscos para a sociedade.


Veja esse artigo em vídeo:


O distanciamento entre jornalistas e público vem de fatores como linguagem distante, falta de empatia, excesso de negativismo, formatos rígidos, presença tímida nas redes e principalmente uma comunicação pensada de dentro para fora. A imprensa tradicional insiste em falar como instituição, enquanto os influenciadores falam como pessoas. E em um mundo da conexão emocional, isso faz toda a diferença.

Eles ganham espaço porque escutam, respondem, compartilham bastidores e se mostram vulneráveis. Se erram, pedem desculpas; se acertam, comemoram. Produzem com o público, e não para o público. Tudo isso cria um vínculo afetivo que o jornalismo tradicional perdeu ao manter a postura de “dono da verdade”. Lamentavelmente, o conteúdo veiculado por muitos desses influenciadores é superficial, errado ou deliberadamente enganoso. Mas, ainda assim, cativa.

Outro fenômeno preocupante é o da evasão informativa. Segundo o relatório, hoje 40% dos entrevistados evitam o noticiário propositalmente, contra 29% em 2017. Cansados do efeito negativo no seu humor (39%) e da sensação de estarem sobrecarregados pela quantidade de notícias (31%), eles preferem se alienar.

Essa tendência cresce mais entre os mais jovens e entre quem se sente emocionalmente impactado por notícias negativas. Só que esse abandono deliberado do jornalismo enfraquece não só os veículos, mas o senso coletivo de realidade.

O estudo indica que os mais velhos ainda buscam jornais, televisão e portais para se informar, enquanto os mais jovens preferem redes sociais, vídeos curtos e creators. E agora entra em cena a IA, com seus resumos sintéticos e sua lógica algorítmica, que entrega o que o usuário quer, e não o que ele precisa saber, jogando por terra o pilar do jornalismo de informar o que for necessário, mesmo que indesejado.

O resultado é uma sociedade cada vez mais fragmentada, onde diferentes grupos vivem realidades informativas completamente distintas.

 

No Brasil

No nosso país, apenas 42% dos brasileiros confiam na imprensa, 20 pontos a menos que em 2015, mas ainda dois pontos acima da média global. Isso se agrava pela nossa alta penetração de redes sociais, concentração da mídia e uma tradição histórica de desigualdade no acesso à educação midiática. O ambiente político polarizado também estimula a desinformação e a desconfiança generalizada.

O jornalismo sério, nesse contexto, enfrenta uma batalha árdua para continuar relevante, respeitado e economicamente viável. Apenas 18% dos 97 mil entrevistados de 28 países pagam por notícias; no Brasil, são 17%.

Parece uma causa perdida, mas o jornalismo não precisa se render ao sensacionalismo nem à superficialidade para reconquistar o público. Deve reaprender a se conectar com ele, com linguagens mais acessíveis e formatos diversificados. Precisa estar presente nos canais em que as pessoas estão, ouvir mais e explicar melhor. Significa ser transparente sobre métodos, admitir erros e mostrar por que cada notícia importa. E, acima de tudo, é fundamental resgatar a missão do jornalismo de ajudar a sociedade a entender o mundo com lucidez e agir com responsabilidade.

Essa reinvenção não deve acontecer apenas dentro das redações. O público também tem um papel crucial. É preciso desenvolver uma consciência crítica em relação à informação, questionando fontes, checando antes de compartilhar, buscando diferentes perspectivas. A alfabetização midiática precisa ser ensinada nas escolas, incentivada nas famílias e promovida em políticas públicas. Quando qualquer pessoa pode se tornar uma produtora de conteúdo, saber consumir informação com discernimento é tão importante quanto produzi-la com responsabilidade.

Se o jornalismo falhar em reestabelecer sua relevância, a democracia perde. Em um mundo marcado pela ascensão de governos populistas e autoritários, pelo ataque sistemático à verdade e pela manipulação do público, um jornalismo enfraquecido abre caminho para regimes opacos, para o pensamento único e para o ódio como método.

Reverter esse quadro é uma missão que cabe aos jornalistas, ao inovarem e se reconectarem com o público, mas essa função não é só eles. As plataformas digitais precisam assumir sua responsabilidade editorial e as instituições de ensino devem priorizar a educação midiática.

É preciso que todos nós entendamos que um jornalismo forte é sinônimo de uma democracia saudável. Não se trata de defender uma categoria profissional, mas sim da possibilidade de viver em uma sociedade livre, informada e capaz de decidir seu destino.

 

A americana Sandy Carter, COO da Unstoppable Domains, palestra durante a Febraban Tech 2025 – Foto: Paulo Silvestre

Hiperpersonalização desponta como chave para fidelidade de clientes bancários

By | Tecnologia | No Comments

A confiança pode ser considerada o principal produto de um banco, desde quando foram criados, e isso não mudará. Mas em tempos em que redes sociais e a inteligência artificial desafiam constantemente nossa percepção de realidade, essas instituições precisam encontrar novas maneiras de se relacionar com o público.

Foi-se o tempo em que um nome consolidado e agências imponentes bastavam para isso. Com a digitalização do setor, a confiança vem da transparência nas propostas do banco, da autonomia do cliente para suas escolhas, de produtos verdadeiramente personalizados, de inclusão financeira e até mesmo do alinhamento dos valores da instituição com os do público.

Esses conceitos permearam a Febraban Tech, evento anual de inovação promovida pela federação dos bancos, que reuniu 58 mil visitantes em São Paulo, entre os dias 10 e 12 de junho. Eles também aparecem no estudo “Empowered Customer Journeys”, produzido pela consultoria Box1824 e pela empresa global de soluções digitais CI&T, divulgado no evento.

Como era de se esperar, a IA esteve em todo lugar, mas dividiu a atenção com o conceito da hiperpersonalização das ofertas, outro recurso cada vez valioso nesse setor. Resta saber quanto as instituições financeiras realmente respeitarão essas demandas do mercado, com uma tecnologia cada vez mais centrada no cliente, indo além do discurso bem-intencionado.


Veja esse artigo em vídeo:


Para a americana Sandy Carter, COO da Unstoppable Domains e uma das principais palestrantes dessa edição da Febraban Tech, não há dúvidas de que o futuro bancário está ligado à confiança algorítmica. Para ela, “uma IA confiável se tornará um diferencial competitivo”.

Mas boas intenções não bastam, sendo necessárias práticas transparentes, auditáveis e baseadas na ética. Segundo dados do estudo Edelman Trust Barometer 2025, 52% dos brasileiros confiam na IA, sensivelmente mais que os americanos (32%) ou os alemães (29%), os mais céticos entre os 28 países avaliados. Os indianos (77%) são os que mais acreditam na tecnologia.

Essa discrepância mostra que a confiança não é um dado, mas uma conquista. No caso dos EUA, Carter explica que a descrença vem justamente de fraudes bancárias. “A crise de confiança faz com que as pessoas acreditem no fake e não acreditem no que é verdadeiro”, acrescenta.

Isso evidencia que a confiança na tecnologia varia culturalmente, mas que também pode ser cultivada com boas práticas. A pesquisa da Box1824 e da CI&T reforça esse ponto ao mostrar que os consumidores brasileiros querem ser respeitados, mais do que apenas bem atendidos.

Na pesquisa, confiança e transparência surgem como moedas simbólicas no novo ecossistema bancário. O estudo também revela que há um desejo crescente por mais autonomia nas decisões financeiras e por relacionamentos com instituições que compreendam e respondam às complexidades individuais de cada cliente.

A IA aparece como principal ferramenta para colocar esses conceitos em prática. Monica Sasso, líder global de serviços financeiros da Red Hat, a principal empresa em software open source corporativo, lembra que a IA já faz parte do setor bancário há muito tempo, mas agora ela se aproxima da superfície. Para ela, “a IA já moldou o relacionamento entre instituições financeiras e consumidores”, citando seu uso em análises de fraude há muitos anos. Agora a IA generativa remodelará os modelos operacionais dos bancos e a forma como eles nos atendem. “A próxima geração de IA vai realmente personalizar os serviços financeiros para nós”, afirma.

Na prática, isso significa deixar de tratar todos como iguais. Em vez de pacotes engessados de crédito, seguros ou investimentos, o cliente poderá receber ofertas alinhadas ao seu momento de vida, histórico de comportamento e perfil de risco. A hiperpersonalização funciona como estratégia de fidelização e diferencial competitivo, transformando a experiência do cliente de algo funcional para algo significativo.

 

Inclusão financeira

Mas essa revolução algorítmica só será relevante se incluir quem ainda está à margem do sistema financeiro. Vinicius Martinelli, vice-presidente executivo da CI&T, destaca o papel da IA como aliada da inclusão, especialmente no Brasil, onde milhões ainda estão fora da rede bancária, e 8 em cada 10 famílias estão endividadas, metade da força de trabalho atua na informalidade e apenas 19% da população adulta completaram o ensino superior.

“A inteligência artificial pode ajudar tanto na eficiência quanto na inclusão, entregando soluções de um jeito muito mais prático, que esses consumidores vão conseguir interagir”, explica. Para ele, assistentes digitais capazes de conversar em linguagem natural ajudarão muito pessoas de baixa escolaridade e sem letramento digital.

Ao mesmo tempo, a tecnologia precisa ser clara. Explicabilidade significa entender e ser capaz de justificar por que um sistema chegou a uma determinada decisão, algo vital quando se trata de aprovar um empréstimo, sugerir um investimento ou avaliar um risco. Ela é crucial para evitar vieses e prestar contas a reguladores e clientes.

Mas a tecnologia também embute riscos reais e crescentes. A IA pode reforçar preconceitos, excluir perfis não padronizados e facilitar fraudes com grande sofisticação, especialmente quando há decisões algorítmicas mal calibradas. Por isso, é um consenso que julgamentos finais devem ficar com especialistas, equilibrando automação com supervisão humana.

Isso muda os papéis de todos os envolvidos. As instituições precisam deixar de ser meras intermediárias para se tornarem parceiras proativas, transparentes e educativas. Os consumidores, mais informados e exigentes, não querem mais ser convencidos, e sim compreendidos. Os bancos que não conseguirem fazer essa transição perderão espaço para fintechs que já nascem com essas ideias.

Assim, eles não podem mais ser os mesmos, porque os clientes já mudaram. A digitalização da vida alterou a percepção de valor, do tempo e de relacionamentos. Para melhorar essa conexão, será preciso ouvir mais, falar menos e agir com mais empatia, tornando os serviços mais acessíveis, claros e justos.

Isso significa investir em explicabilidade, combater vieses com o mesmo vigor com que se combate fraudes e responder às novas demandas por autonomia e propósito. Se fizerem isso, os bancos manterão sua relevância e poderão se tornar símbolos de confiança, agora no momento de ascensão da inteligência artificial.

 

Thiago Viola, diretor de Inteligência Artificial, Dados e Automação da IBM Brasil, durante o AI Forum – Foto: Paulo Silvestre

Enquanto superinteligência artificial continua na ficção, agentes tentam ampliar poderes da IA

By | Tecnologia | No Comments

Desde o fim de 2024, ouço líderes de grandes empresas de tecnologia dizer que 2025 seria “o ano dos agentes de inteligência artificial”. Estamos agora no meio do ano, e esses sistemas começam a mostrar mais força, inclusive com o surgimento de plataformas que integram diversos deles para realizar tarefas mais complexas. Resta saber quanto disso cumpre a promessa e quanto é apenas marketing tecnológico, e quais os benefícios e os riscos de seu uso.

Agentes são sistemas potencializados pela IA capazes de realizar tarefas com pouca ou nenhuma supervisão humana. Ao contrário de plataformas populares, como o ChatGPT, podem funcionar de maneira contínua, monitorando o ambiente sem necessidade de comandos para cada ação, e aprendendo a cada interação.

Essa autonomia representa um grande benefício, mas também acende alguns alertas. Especialmente com a chegada da inteligência artificial generativa e suas conhecidas “alucinações”, a operação de agentes não supervisionados pode incluir erros sérios nos negócios. E com diversos deles trabalhando de maneira orquestrada, um agente “mal-comportado” pode corromper outros, até mesmo disseminando vieses.

O discurso das big techs se apoia em investimentos bilionários e em sua corrida tecnológica. Mas é preciso separar o que já é realidade do que ainda é expectativa. O levantamento CEO Study, publicado pelo Institute for Business Value da IBM, mostra que, enquanto 61% das empresas no mundo que usam IA em sua operação já implementaram agentes, no Brasil esse índice é de 67%. Até o fim do ano, a taxa global deve chegar a 85%.

No entanto, a autonomia desses agentes ainda é limitada. O que se vê, na prática, é uma adoção para tarefas específicas e repetitivas, enquanto usos mais sofisticados ainda exigem supervisão humana e governança robusta.

Assim, passada metade do “ano dos agentes”, eles avançam, mas de uma maneira não tão exuberante. A desejada autonomia plena, com tomada de decisões complexas e adaptação a contextos ambíguos, segue como objetivo em desenvolvimento.


Veja esse artigo em vídeo:


Na quinta passada, participei do IBM AI Forum, em São Paulo, onde conversei com Thiago Viola (foto), diretor de Inteligência Artificial, Dados e Automação da IBM Brasil. Segundo ele, o crescimento dos agentes está migrando para fluxos mais sofisticados, com agentes especializados e independentes atuando em conjunto.

Para que isso seja possível, plataformas como o IBM Watsonx Orchestrate e a SAP Joule atuam como interfaces amigáveis, que recebem as demandas dos usuários em linguagem natural. Elas então acionam os agentes necessários, mesmo de diferentes fornecedores, para realizar a tarefa. As respostas, até as mais complexas, chegam consolidadas e também em bom português.

Isso é um grande avanço. Assim, o usuário fica livre de interfaces às vezes demasiadamente complexas de sistemas como ERPs e CRMs, ou de aplicações antigas. Os agentes extraem e consolidam todas as informações necessárias.

“É como se o sistema legado virasse uma base de conhecimento, e o agente de IA passa, então, a criar essa camada de uso, sem que o usuário precise tocar no sistema”, explica Viola. “O agente terá essa conexão criada e esse ‘self learning’ de fazer esse recorte, entender e projetar isso como resposta para o usuário.”

A orquestração de agentes também traz riscos. A chance de ciberataques cresce, com esses sistemas podendo se tornar vetores para extração de dados e invasões. A complexidade de coordenação aumenta exponencialmente com mais agentes, elevando o risco de conflitos (comportamentos contraditórios) e conluios (cooperação indesejada) entre os agentes, podendo levar à perda da tarefa determinada.

“Se você tiver um modelo que está enviesado e você o combina com outros, a tendência é que isso comece a gerar um ‘drift’, ele começa a sair do foco”, detalha Viola. Para mitigar esses riscos, seres humanos precisam usar ferramentas para calibrar alucinações, rastrear tomadas de decisão e auditar comportamentos da IA.

 

IA mais fácil

Essas plataformas de orquestração de agentes devem ainda ajudar a resolver a baixa utilização dos dados empresariais pela IA, outro ponto crítico para melhores decisões de negócios. Estima-se que 99% deles ainda não sejam usados, por estarem armazenados em sistemas legados, não estruturados ou de baixa qualidade.

Mas vele lembrar que a IA não toma boas decisões com dados ruins. Como já foi dito nesse espaço várias vezes, o primeiro passo para uma boa IA é o investimento em governança de dados, com curadoria, normalização e atualização constante.

Com essas novas interfaces, a criação de agentes de IA também se torna cada vez mais fácil, sem a necessidade de programadores experientes. Ainda assim, isso não elimina a necessidade de conhecimento do negócio, de gestão de riscos e de uma cultura organizacional preparada para lidar com tecnologias autônomas.

Por isso, a narrativa de que os agentes de IA redefinirão o trabalho não implica substituição em massa, mas sim uma mudança fundamental em como trabalhamos. A realidade de sua adoção em 2025 é a de equipes híbridas, em que agentes lidam com a rotina e o volume, liberando os humanos para o pensamento crítico, a criatividade e a tomada de decisões complexas, que não devem ser totalmente automatizadas.

Essa tecnologia, embora avançada, ainda não atingiu a maturidade para operar sem uma significativa intervenção humana, especialmente em cenários de alta criticidade ou complexidade. Por isso, os inegáveis benefícios oferecidos pelos agentes não podem justificar que abandonemos nossa responsabilidade ou autonomia. Só assim poderão cumprir seu papel como aliados e não como riscos ocultos disfarçados de eficiência.

O “hype” em torno dos agentes de IA serve como um catalisador para investimentos e experimentação, impulsionando a inovação. A tendência é de uma integração cada vez mais profunda da IA com os fluxos de trabalho, com a evolução de agentes mais especializados e multimodais.

O sucesso dependerá de as organizações se adaptarem cultural e operacionalmente, transformando o potencial da IA em resultados sustentáveis e garantindo que a tecnologia sirva como um motor de desenvolvimento inclusivo e responsável, sem dispensar os seres humanos.