Paulo Silvestre

Graças à tecnologia, hoje um único profissional pode fazer o que antes exigia equipes inteiras – Foto: Freepik/Creative Commons

IA favorece a criatividade, mas piora a vida dos criadores de conteúdo

By | Tecnologia | No Comments

A economia criativa global segue crescendo, mas os criadores estão ficando para trás. Essa é a tensão central do relatório “Re|Shaping Policies for Creativity”, publicado recentemente pela Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco). Com dados de 133 países, ele alerta sobre uma transformação estrutural acelerada pela digitalização e pela inteligência artificial, que está redesenhando quem ganha, quem perde e quem controla a produção cultural no mundo.

Nunca foi tão fácil criar, distribuir e acessar conteúdo. O mercado global de bens culturais atingiu US$ 254 bilhões em 2023. Mas isso vem junto com o aumento da precarização do trabalho criativo. O documento destaca que há pouco emprego estável para criadores, os modelos de remuneração são frágeis e as plataformas digitais concentram valor. Com isso, o órgão projeta uma queda de até 24% na receita dos criadores até 2028, impulsionada pela IA e pelo uso não autorizado de conteúdos.

O estudo indica que as redes sociais deixaram de ser espaços de interação para impactar a democracia, o bem-estar e a regulação global. Há uma preocupação crescente com saúde mental, governança das plataformas e desinformação.

Nesse sentido, é inevitável pensar em como essas mudanças atingem o coração do jornalismo contemporâneo. Quando se fala em perda de receita, desintermediação e captura de valor pelas plataformas, estamos falando exatamente da crise que o setor vive há pelo menos duas décadas. Isso se agrava com a IA generativa, pois não só as redações perdem o controle de seu produto, como ele ainda passa a ser reprocessado e reapresentado, sem tráfego para a fonte. Isso se enquadra no que o relatório chama de desvalorização da criatividade humana.

A cultura é um ativo econômico relevante como vetor de inovação e como ferramenta de desenvolvimento. Mas o sistema que a sustenta está deslocando valor dos criadores para intermediários tecnológicos. Temos mais produção e circulação, porém menos remuneração. E esse desequilíbrio corrói um pilar de qualquer sociedade.


Veja esse artigo em vídeo:


Há um lado inegavelmente positivo da IA, que acelera processos e permite que mais pessoas produzam conteúdo em escala e com qualidade. Hoje, um único profissional pode fazer o que antes exigia equipes inteiras. O próprio relatório reconhece esse potencial ao apontar que tecnologias digitais podem democratizar o acesso à cultura e estimular novas formas de expressão, como uma infraestrutura criativa.

Por outro lado, quando a produção explode, o valor individual tende a cair, e a tecnologia acelera esse processo. Por isso, o estudo destaca que 79% dos profissionais culturais veem a IA como ameaça à sua subsistência. E não se trata de resistência à tecnologia e sim de uma percepção de perda de controle econômico.

A questão central não é, portanto, a capacidade de criar, e sim a de capturar valor. A IA se alimenta de conteúdos existentes, muitas vezes sem remuneração proporcional (ou qualquer remuneração), e depois entrega produtos derivados que competem com os próprios criadores. É uma cadeia na qual quem produz é o elo mais frágil.

Não se trata de “usar bem ou mal a IA”. O relatório aponta um vazio regulatório relevante, indicando que há 148 leis relacionadas à inteligência artificial em 128 países, mas apenas uma trata especificamente de cultura. Como de costume, a tecnologia avança mais rápido do que as regras que deveriam equilibrar seus efeitos, mas sem regulação, o mercado tende a favorecer quem escala e não quem cria.

A Unesco aponta ainda para uma séria ameaça à diversidade cultural. A IA passou a influenciar diretamente como conteúdos culturais são produzidos e acessados, mas ela opera com critérios de engajamento. Além disso, os modelos são treinados com grandes volumes de dados do hemisfério norte ocidental. Isso cria um risco estrutural de repetição de estilos, de redução de diversidade estética e de concentração de narrativas.

 

Uma tecnologia contraditória

A IA não é neutra nem inevitavelmente boa ou ruim. Esses resultados escancaram a necessidade de regras claras de remuneração, transparência no uso de dados e mecanismos de proteção aos criadores. Sem isso, a Unesco aponta que teremos cada vez mais gente criando, mais conteúdo circulando e menos pessoas vivendo disso.

O caso do jornalismo é emblemático. A pressão por produtividade em tempo real agora se combina à dependência de ferramentas automatizadas pela redução das equipes. A IA chega como uma ferramenta ambígua, que amplia a capacidade, mas também incentiva atalhos perigosos, especialmente em ambientes de alta pressão. Se o seu modelo econômico enfraquece, o impacto vai além dos profissionais, afetando a própria democracia. Menos receita significa menos investigação, menos diversidade e mais dependência de automação, o que pode aumentar a desinformação.

Um caminho para toda a economia criativa é a criação de remunerações obrigatórias pelo uso de conteúdo em sistemas de IA. O próprio relatório aponta a fragilidade dos atuais sistemas de propriedade intelectual. Sem isso, qualquer medida será paliativa.

A regulação parece inevitável, mas exige cuidado. Regular demais pode inibir inovação, mas regular de menos consolida abusos. O desafio é definir regras claras no uso de dados para treinamento de IA, na transparência sobre como conteúdos são usados no seu treinamento e na responsabilidade sobre o que ela gera.

Obviamente não se trata de rejeitar a IA, mas sim de aprendermos a usá-la de forma estratégica. Precisamos desenvolver habilidades técnicas e pensamento crítico sobre seus benefícios, seus riscos e as implicações éticas de seu uso.

Talvez a mudança mais difícil seja repensar a própria lógica de distribuição. As plataformas se tornaram intermediários dominantes e é preciso equilibrar essa intermediação. Mas isso só acontecerá com vontade política. A IA não respeita jurisdições nacionais, mas os direitos dos criadores ainda dependem delas.

Isso não é uma crise passageira. O que está em jogo vai além da renda de criadores, definindo o tipo de ecossistema cultural que queremos sustentar. Se houver intervenção coordenada, a inteligência artificial pode, de fato, ampliar a criatividade humana em vez de substituí-la economicamente. A diferença entre esses dois futuros possíveis não é tecnológica, e sim política, econômica e, no limite, cultural.

 

Robô Atlas, da Boston Dynamics, movimenta peças entre armários - Foto: reprodução

Inteligência dos robôs humanoides avança rápido, mas seus corpos ainda são rudimentares

By | Tecnologia | No Comments

Há alguns dias, vi um robô humanoide funcionando em um hospital. Ele cambaleava pelos ambientes, pegava objetos em gavetas e fazia lentamente ações simples, que renderam muitas visualizações. Mas diante desses vídeos, às vezes vendidos como produtos prontos em uso, sempre penso que jamais aceitaria ser atendido por aquilo. E, se fosse gestor do hospital, não gastaria um tostão em tal máquina.

Estou muito longe de ser um ludita. Pelo contrário, sou um entusiasta de diferentes formas de tecnologia e pesquisador de inteligência artificial. Mas, talvez justamente por isso, desenvolvi um olhar bastante crítico sobre essas supostas “operações”.

É um fato que as versões mais recentes de robôs humanoides fazem movimentos incríveis, como se fossem pessoas. Muitos aparecem “trabalhando” em empresas, em atividades diversas. Isso desperta grande entusiasmo em parte do público, como se a ficção científica estivesse se materializando diante de nossos olhos.

Mas a verdade nua e crua é que isso não passa de propaganda. Ironicamente, a inteligência artificial que controla essas máquinas avança de maneira galopante, mas seus corpos ainda se comportam como brinquedos caros e limitados.

Esses robôs funcionam bem em ambientes extremamente controlados, com tarefas previsíveis. Mas o mundo insiste em ser caótico e inesperado. Além disso, os sentidos de uma criança superam largamente os sensores de qualquer robô, permitindo que ela se adapte a situações simplórias cotidianas em que a máquina não sabe o que fazer.

Se há algo que podemos tirar disso é que, apesar de a robótica e principalmente a IA estarem cada vez mais incríveis, há coisas que elas não conseguem fazer, pelo menos ainda. Mas principalmente há aquilo que elas não devem fazer, mesmo sendo capazes. E isso tem a ver com como posicionamos a nossa humanidade nesse cenário.


Veja esse artigo em vídeo:


Apesar desse hype, eu não chamaria esses autômatos de fraudes. As empresas que os criam estão efetivamente buscando soluções para problemas reais, como robôs capazes de operar em ambientes insalubres para pessoas. Elas também os estão testando e coletando informações no mundo real para treinar seus sistemas.

Mas me incomoda essa apresentação como máquinas que já fossem versáteis e confiáveis, convencendo muita gente dessas características que elas não têm. A única coisa totalmente verdadeira agora é o desejo de seus fabricantes de encher nossos olhos para conseguirem muito dinheiro de investidores. E assim nós promovemos uma tecnologia incipiente por acreditarmos que já estamos perto do mundo dos Jetsons.

Certamente, em algum dia, essas máquinas “chegarão lá” e se tornarão tudo que prometem ser. Mas não será neste ano, nem no próximo. Em ambientes menos complexos, como em uma linha de montagem, que deve ser o mais previsível possível, teremos robôs humanoides confiáveis talvez em uns cinco anos.

No setor de serviços, robôs humanoides efetivamente funcionais devem demorar ainda mais (talvez uma década), pois se trata de um local bem mais imprevisível e confuso. Pior que isso, só mesmo o ambiente doméstico, pois casas são caóticas, cheias de variáveis, objetos irregulares e situações inesperadas.

Não estou falando dos aspiradores de pó robôs, que desempenham bem o seu trabalho por fazerem apenas uma coisa e serem otimizados para isso. Para uma máquina substituir com vantagens um trabalhador doméstico humano, ela precisa combinar três coisas que hoje não existem, que são uma destreza física avançada, uma compreensão contextual sofisticada e um custo acessível.

Para termos isso, pelo menos 15 anos ainda serão necessários.

 

A dificuldade de “estar no mundo”

Em todas essas situações, quanto menos parametrizadas forem suas tarefas, pior. Por isso, se o robô tiver que lidar com pessoas, que são imprevisíveis por definição, a sua eficiência cai exponencialmente.

Não se trata apenas de uma limitação mecânica, e sim cognitiva. Interagir com humanos exige compreensão de linguagem, contexto e emoção. E mesmo com os avanços recentes da IA generativa, integrar isso de forma confiável em um corpo físico artificial ainda é um desafio técnico enorme.

Nosso organismo evoluiu por milhões de anos para tirarmos o máximo das sensações de estarmos imersos no mundo. Isso é natural até para um bebê, mas não para uma máquina. Um exemplo são os carros autônomos, que se envolvem em menos acidentes que motoristas humanos, porém ainda apresentam eventualmente comportamentos erráticos e inexplicáveis, por mais que façam a única tarefa de dirigir.

A solução passa pela chamada “inteligência artificial sensitiva”. Ela não significa consciência ou sentimentos das máquinas, mas sim sua capacidade de integrar tipos variados de percepção, como visão, áudio e tato, e transformar isso em ação. Para isso, combinam visão computacional, linguagem natural e controle motor.

Nos últimos anos, houve progressos relevantes nessa área. Empresas como a OpenAI e o Google DeepMind vêm desenvolvendo os chamados “modelos de mundo”. Eles permitem que os robôs aprendam tarefas menos por programação explícita e mais por demonstração ou instrução em linguagem natural. Mas ainda há um descompasso entre a percepção e a tomada de decisão, que melhoraram muito, e a execução física, que continua tosca.

Há ainda um componente psicológico. Queremos que máquinas “entendam” e “sintam” não só por eficiência, mas porque isso torna a nossa interação com elas mais natural. Talvez a busca por robôs humanoides “sensíveis” se refira menos a objetivos técnicos e mais à nossa expectativa de conviver com tecnologias que se pareçam conosco.

Precisamos avaliar se isso é mesmo necessário para que sejam úteis, especialmente em atividades críticas, como as que envolvem a integridade e a saúde das pessoas. Então possivelmente os robôs mais úteis não serão humanoides, mas sistemas híbridos, como uma espécie de “infraestrutura inteligente”.

Em qualquer caso, a regra de ouro é que tanto a IA quanto os robôs só devem ser concebidos para o bem da humanidade, e não para interesses de marketing de seus fabricantes. Resta saber se isso nos será entregue.

 

Mark Zuckerberg, CEO da Meta, chega para seu depoimento no Tribunal Superior da Califórnia, no dia 18 de fevereiro – Foto: reprodução

Decisões jurídicas podem redesenhar as redes sociais

By | Tecnologia | No Comments

Uma decisão do Tribunal Superior da Califórnia pode mudar decisivamente a maneira como usamos as redes sociais e até como elas são construídas. Depois de deliberar por uma semana, o júri concluiu na quarta (25) que Facebook, Instagram e YouTube viciam seus usuários e que provocaram problemas de saúde mental em uma jovem.

A decisão do julgamento, iniciado no dia 17 de fevereiro, pode ser considerada histórica, pois ela não se baseou no conteúdo publicado nessas plataformas, e sim nos seus algoritmos e no seu design, considerados nocivos por manter online as pessoas de maneira artificial e deliberada. Isso cria um precedente para os cerca de 2.000 outros processos semelhantes que estão ativos nos EUA.

KGM, hoje com 20 anos, processou a Meta, o YouTube, o Snapchat e o TikTok em 2023. Ela começou a usar as redes sociais aos 6 anos e alegou que os sites causaram danos pessoais, incluindo dismorfia corporal e pensamentos suicidas. O Snapchat e o TikTok fizeram acordos antes do julgamento, mas a Meta e o YouTube prosseguiram com o processo, pois afirmam ser muito difícil provar que redes sociais causam dependência e danos pessoais.

Com a decisão, a Meta (dona do Facebook e do Instagram) e o Google (dono do YouTube) devem pagar US$ 3 milhões em indenização, com a primeira sendo responsável por 70% do valor. As empresas disseram que vão recorrer.

Foi a primeira vez que o júri de um caso como esse teve acesso a documentos internos das big techs e ouviu depoimentos de seus principais executivos, incluindo Mark Zuckerberg, CEO da Meta. Essa confrontação exibiu um posicionamento que chega a ser cínico dessas empresas. Elas têm consciência dos danos, não fazem tudo que podem para mitigá-los, mas afirmam ser preocupadas com seus usuários. Agora essa exposição determinará o que acontecerá com as plataformas daqui para frente.


Veja esse artigo em vídeo:


Muita gente está comparando essa decisão com uma de 1998 contra a indústria do cigarro, depois que 46 Estados americanos processaram aquelas empresas por danos à saúde pública. Elas foram obrigadas a pagar US$ 206 bilhões para compensar custos de saúde, aumentar o preço de seus produtos, restringir fortemente a publicidade, dissolver seu lobby e revelar milhões de documentos internos, além de financiar campanhas antitabagismo.

A medida inspirou leis e iniciativas semelhantes no mundo todo, inclusive no Brasil. Isso provocou uma queda contínua na quantidade de fumantes, que só desacelerou com a popularização de cigarros eletrônicos, conhecidos como “vapes”, há 15 anos. A indústria os apresentou como um “fumo menos nocivo” e até um caminho para parar de fumar, mas hoje se sabe que eles podem ter um potencial viciante ainda maior.

“A gente precisa ter cautela, porque o paralelo com a indústria do tabaco faz sentido na medida em que envolve um possível conhecimento prévio de danos e escolhas de design que amplificam os riscos”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Se surgirem provas robustas de que houve ocultação e manipulação intencional, pode ser que a gente tenha um ponto de inflexão bastante semelhante em impacto regulatório”, pondera.

“A decisão fortalece uma percepção de que há riscos estruturais no ambiente digital que exigem mais atenção não somente de pais e responsáveis, mas da sociedade como um todo”, acrescenta Marcelo Cárgano, advogado especialista em direito digital do Abe Advogados. Para ele, “à medida que se consolida a percepção sobre o papel do design destas plataformas na indução de comportamento, cresce a expectativa por regras mais claras, fiscalização efetiva e responsabilização quando houver danos”.

No julgamento, as empresas alegaram que não permitem usuários com menos de 13 anos, porém documentos internos da Meta mostraram que ela sabe que crianças as usam regularmente. A companhia disse que toma medidas para proteger os usuários mais jovens, mas outros documentos indicavam metas de retenção de pré-adolescentes na plataforma.

 

O abuso da liberdade de expressão

As empresas tentaram arquivar o processo, invocando a proteção da liberdade de expressão. Esse é um recurso que as big techs usam há décadas, baseado na Seção 230 do Communications Decency Act (CDA) dos EUA e no artigo 19 do Marco Civil da Internet brasileiro. Esses mecanismos determinam que essas plataformas não podem ser responsabilizadas pelos conteúdos que os usuários publicam em suas páginas.

“No Brasil, essas defesas tendem a perder força após a decisão do Supremo Tribunal Federal em junho de 2025, que declarou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet e ampliou as hipóteses de responsabilização das plataformas”, explica Cárgano. “No caso de crimes gravíssimos, as plataformas têm o dever ativo de impedir a própria publicação desse tipo de conteúdo”, afirma.

O assunto esquentou por aqui, com a entrada em vigor, no dia 17 de março, do ECA Digital, que visa proteger crianças e adolescentes de abusos nessas plataformas. Mas, apesar de já estar valendo, pouco efetivamente já foi feito para essa proteção.

Essas leis e decisões enfraquecem o discurso das big techs de que não podem ser responsabilizadas, com o qual se encastelaram. A sociedade se cansou dessa “autorregulação de fachada” e agora percebe que o maior problema não são os conteúdos, e sim os algoritmos e o design desses ambientes digitais, criados para engajar seus usuários ao extremo, mesmo às custas de sua saúde mental.

“O maior desafio jurídico continua sendo o nexo causal, demonstrar que um design específico gerou ansiedade, depressão ou dependência, e isso não é trivial”, explica Crespo. Segundo ele, “isso está evoluindo com estudos científicos, com documentos internos e com padrões de comportamento replicáveis”.

Se os tribunais consolidarem a ideia de que extrair tempo e dados de usuários com mecanismos viciantes configura dano indenizável, os modelos de negócio baseados em engajamento a qualquer custo deixarão de ser apenas eticamente questionáveis, para se tornar economicamente arriscados.

A sociedade, por sua vez, precisa entender que educação midiática já não basta. A resposta aos riscos digitais não pode mais ser apenas “ensinar a usar melhor”, mas garantir, por leis efetivas, proteções mínimas, sobretudo para crianças e adolescentes.

 

A pesquisadora Sherry Turkle, para quem as pessoas esperam da tecnologia saídas rápidas para problemas emocionais - Foto: reprodução

Inteligência artificial tenta “dar match” onde apps de namoro falharam

By | Tecnologia | No Comments

No dia 12 de março, o Tinder anunciou novos recursos com inteligência artificial para tentar corrigir um problema que ele ajudou a criar. Seu excesso de escolha transformou a busca por sexo e por amor em um exercício de fadiga. A promessa agora é trocar o malfadado “cardápio de gente” pela “curadoria de relacionamentos”. Resta saber se a IA terá sucesso onde os algoritmos tradicionais vêm falhando miseravelmente.

O uso da tecnologia para encontrar o par perfeito não é novo. Há três décadas, esses sistemas evoluem de formulários de características simples, como idade, religião e hobbies, para plataformas que cruzam dados, comportamento e preferências. As versões recentes tentam inferir e combinar padrões invisíveis ao próprio usuário, tornando-se, para muitos, o principal, se não o único, caminho para conhecer alguém.

Mas tanta “eficiência” tem cobrado um preço alto na saúde mental e na qualidade dos vínculos. Vemos uma distorção sistemática dos relacionamentos, resultando em laços extremamente frágeis e no fenômeno do “dating burnout”. Essa exaustão, derivada da esperança de que o próximo perfil será ligeiramente melhor, gera solidão, ansiedade e baixa autoestima. As pessoas nunca estiveram tão conectadas, mas raramente se sentiram tão sozinhas diante de uma lista infinita de opções descartáveis.

Esse cenário ecoa as ideias do filósofo polonês Zygmunt Bauman, que descreveu em 2003 o “amor líquido” como vínculos flexíveis e instáveis em uma cultura consumista. Isso dialoga também com a socióloga americana Sherry Turkle, para quem as pessoas passaram a esperar da tecnologia soluções eficientes para dilemas emocionais.

Se o amor nunca foi tão “mensurável”, tampouco foi tão instável. A dúvida é se a inteligência artificial pode, de fato, aproximar pessoas reais para relações saudáveis, ou apenas tornará mais eficiente um sistema que já vem sendo considerado falido pelos próprios usuários, pela pretensa “otimização” que corrói o investimento emocional necessário para relacionamentos de longo prazo.


Veja esse artigo em vídeo:


No “amor líquido”, os laços humanos tornaram-se bens de consumo que, se não trouxerem satisfação imediata, serão descartados. Na nossa realidade digital, o outro deixa de ser um indivíduo complexo para se tornar um objeto de gratificação momentânea. A tecnologia não apenas facilita esse processo, como o incentiva, ao transformar a busca pelo parceiro em um jogo de recompensas rápidas e superficiais.

Bauman argumentava que o grande dilema moderno é o conflito entre o desejo de segurança e o medo da prisão. As pessoas querem a estabilidade de um companheiro sem perder a liberdade de sair da relação ao menor sinal de tédio. Os aplicativos de namoro resolvem esse paradoxo de forma pragmática e cruel, ao oferecerem a ilusão de um vínculo que pode ser “desligado” com um clique, permitindo que o usuário mantenha um pé fora da relação enquanto ainda está nela.

Isso reforça as ideias de Turkle sobre como esperamos da tecnologia saídas rápidas para problemas que são, por natureza, emocionais e lentos. Usamos esses sistemas como mediadores preferenciais porque exigem menos do que os seres humanos. Afinal, é mais fácil interagir com algo que nos oferece controle total que enfrentar a vulnerabilidade de uma conversa olho no olho, em que não há botão de “cancelar”.

A pesquisadora do Instituto de Tecnologia de Massachusetts (MIT) explica que as pessoas buscam uma ilusão de companhia sem as exigências da amizade. E os aplicativos de namoro oferecem interação constante e validações do ego, mas com um custo emocional baixíssimo. Criam a “conexão pela conexão”, em um simulacro de intimidade que preenche o tempo, mas não o vazio da falta de uma presença real.

Vale dizer que a tecnologia não inventou o “amor líquido”, mas lhe ofereceu o terreno perfeito. Ao amplificar comportamentos que já vinham sendo moldados por décadas de individualismo e imediatismo na sociedade, ela ampliou uma aversão ao compromisso que já estava latente na cultura ocidental. E os smartphones aceleraram uma desintegração social iniciada muito antes do lançamento do primeiro aplicativo.

Culpar as plataformas é uma saída confortável, mas simplista. O problema não está na tecnologia em si, mas no tipo de vínculo que incentiva e nas expectativas que constrói.

 

“Traição líquida”

Em janeiro de 2025, o “The New York Times” contou o caso de uma americana de 28 anos, que é casada, mas tem um “amante de IA” com quem passa mais de 50 horas por semana, incluindo interações sexuais por texto. O marido sabe e não se incomoda, já que não há consumação física.

Sob a ótica de Bauman e de Turkle, ambos ganham com esse arranjo distópico. A mulher obtém a atenção ininterrupta e a validação de um sistema programado para agradar, enquanto o marido se livra da carga emocional de suprir todas as demandas da esposa. Criou-se uma relação em que ninguém se esforça, ninguém se sacrifica e ninguém se compromete de verdade. O vínculo humano é substituído por uma conveniência técnica que mantém a paz doméstica ao custo da profundidade.

Diante de casos como esse, cada vez mais numerosos, a sociedade precisa repensar conceitos como paquera, ciúmes e até traição. Estamos redesenhando o amor para que ele caiba nas limitações e facilidades dessas plataformas digitais, porém, se a nossa definição de relacionamento passa a aceitar uma simulação como equivalente ao real, podemos estar perdendo a bússola do que significa ser humano. O risco é nos tornarmos tão “eficientes” em evitar os desafios do amor, que acabemos esquecendo como sentir qualquer outra coisa que não seja o conforto falso dessas plataformas.

O cansaço emocional e a descartabilidade de fenômenos como o “dating burnout” mostram que há muitos relacionamentos mediados por tecnologia, mas pouca presença, escuta e continuidade. Isso reforça o diagnóstico de Turkle sobre vínculos frágeis em ambientes digitalmente mediados. As pessoas estão falando sem parar, mas sem escuta, e conectando-se com muitos, mas sem comprometimento. Estamos sempre “quase lá”, sem nunca estar inteiramente com alguém.

Se a inteligência artificial promete otimizar e prever o amor, talvez não devêssemos nos preocupar se isso é possível tecnicamente, mas se, com ela, o amor continuará sendo amor ou se acabará transformando-se apenas em uma “experiência eficiente”. Relacionamentos envolvem incerteza e vulnerabilidade, com chance real de se machucar. Ao tentar eliminar o risco, podemos estar retirando exatamente aquilo que torna o vínculo afetivo significativo.

É provável que a tarefa mais urgente não seja então delegar mais decisões aos algoritmos, e sim decidir, com alguma coragem, que tipo de humanidade queremos levar para nossas telas.

 

Mesmo com o avanço da IA da sala de aula, papel do professor continua imprescindível - Foto: Zinkevych (Freepik)/Creative Commons

Propostas do MEC para bom uso da IA servem para todos os setores da sociedade

By | Educação, Tecnologia | No Comments

Além das transformações intensas por toda a economia, a inteligência artificial está transformando a maneira como falamos e até pensamos. Por isso, temos que buscar um uso consciente e construtivo dela. Esse cuidado se torna crítico na educação, justamente onde desenvolvemos valores, novas habilidades e formamos cidadãos.

Nesse quadro, o Referencial para o Uso e Desenvolvimento Responsáveis de Inteligência Artificial na Educação, publicado na quinta passada (12) pelo Ministério da Educação (MEC), é muito bem-vindo. O documento orienta educadores e instituições e oferece diretrizes para políticas públicas sobre como fazer bons usos dessa tecnologia nas escolas da educação infantil à pós-graduação.

Criar um arcabouço de propostas com essa complexidade leva tempo, mas professores e alunos já usam a IA generativa há anos. Infelizmente, por falta de orientação, muitos deles não aproveitam tudo que a tecnologia oferece ou fazem até usos questionáveis dela.

Isso não é exclusivo da educação. Pelo contrário, vemos adoções inadequadas dessa tecnologia em todos os setores. A rapidez da sua evolução supera nossa capacidade de compreender o que cada mudança representa. Além disso, nunca algo havia invadido nossos sagrados campos da cognição e da criatividade.

Assim, embora seja voltado à educação, a proposta do MEC explicita princípios que podem, com adaptações, orientar outros setores no uso de IA. Ela enfatiza supervisão humana efetiva, transparência e explicabilidade dos sistemas, proteção rigorosa de dados pessoais, avaliação de impacto algorítmico, promoção de equidade e inclusão e soberania tecnológica. Dessa forma, suas diretrizes têm potencial de inspirar políticas públicas e práticas organizacionais muito além do ambiente educacional.


Veja esse artigo em vídeo:


O MEC não está sozinho na orientação sobre bons usos da IA na educação. No momento, 12 universidades brasileiras já têm regras internas sobre o uso dessa tecnologia. Um dia antes da publicação do referencial do ministério, a Universidade Estadual Paulista (Unesp) publicou o seu Guia para utilização de IA na graduação. A Universidade de São Paulo (USP) e a Universidade Estadual de Campinas (Unicamp) também estão trabalhando em documentos semelhantes.

De certa forma, os documentos do MEC e da Unesp são complementares. O primeiro funciona como um marco principiológico, sem entrar em regras operacionais. Já o segundo tem abordagem mais pragmática, organizando o que alunos, docentes e funcionários podem e não podem fazer com a IA no cotidiano.

“O referencial do MEC chega em um tempo que alunos e professores já estão usando a IA para diversos fins”, afirma David de Oliveira Lemes, professor da PUC-SP. “Hoje, não dá para fugir disso, mas é preciso ter critérios de uso”, acrescenta.

“Quando a gente fala da questão da tecnologia com o professor, eu preciso oferecer condições para que ele se aproprie, entenda e se enxergue dentro desse universo, porque, senão, ele não consegue vincular isso à prática pedagógica”, explica Ana Lucia de Souza Lopes, professora e líder do Laboratório de Humanidades Digitais da Universidade Presbiteriana Mackenzie. “Ele corre o risco de a IA fazer tudo para ele e determinar que professor ele vai ser”, alerta.

Os pesquisadores concordam que o letramento tecnológico de professores e alunos é necessário, porém não é suficiente. O uso irrefletido da IA pode produzir mediocridade automatizada, limitada por prompts rasos, em vez de melhorar o ensino.

“A gente tem que discutir a IA do ponto de vista epistemológico, pois ela entra em tudo na vida, molda comportamentos, impacta como eu me visto, o que eu consumo, como eu penso”, diz Lopes. “Então eu tenho que aprender a ‘pensar a IA’, não só aderir a ela, nessa relação vertiginosa que a gente não sabe para onde vai.”

 

Capacitação docente

Mas nem o melhor documento mudará a prática pedagógica se não houver formação e discussão coletiva. Por falta de apoio, muitos docentes acabam aprendendo sozinhos a usar a tecnologia, com resultados muito aquém do possível.

Isso é uma lástima, pois a tecnologia pode alterar profundamente a dinâmica da sala de aula, repensando a didática, avaliação e processos de aprendizagem. Metodologias ativas baseadas em projetos ficam ainda melhores, pois os alunos podem ganhar protagonismo ao usar a tecnologia para construir atividades antes inatingíveis.

“Eu tenho pensado muito nessa relação entre aquilo que é esse novo e os processos de ensino e aprendizagem, nos seus princípios, seus fundamentos, porque isso vai mudar”, sugere Lopes. “A gente tem que falar de uma didática digital, tem que incluir, neste campo do saber, pesquisas que discutam esse digital, porque são outras possibilidades de aprender e de ensinar.”

Dessa forma, a IA pode apoiar, mas nunca substituir o professor. Mas deve existir uso crítico, consciência dos limites dos sistemas e preservação do protagonismo docente e discente. Caso contrário, há o risco de se cair em uma pirotecnia tecnológica que se presta apenas ao marketing escolar. Não se deve demonizar a tecnologia, mas sim colocar cada coisa no seu lugar.

O referencial do MEC afirma que a IA deve reforçar o direito à educação, a equidade e a dignidade humana. Mas Lemes lembra que vivemos em um país com profundos abismos sociais, que podem se agravar com implantações desiguais da IA na escola. “Uma coisa é você falar de universidades com pensadores de ponta, boa infraestrutura para professores e para os alunos, que se preocupam com a formação dessas pessoas, mas outra é aquele professor que está em um local sem conectividade, com equipamentos de baixa qualidade e agindo sozinho”, explica.

A inteligência artificial já entrou nas salas de aula muito antes de qualquer regra. O referencial do MEC e os guias das universidades tentam organizar um fenômeno já em curso. Eles não resolverão sozinhos os dilemas pedagógicos, éticos e culturais que a tecnologia impõe, mas ao menos reconhecem que a ignorar não é mais uma opção.

Nosso desafio não é definir se a IA pode ser usada na educação, e sim evitar que ela substitua o esforço intelectual. Como disse Lemes, “eu não vou competir com a IA, mas usarei minha experiência para compartilhar histórias com os alunos, para mostrar o que dá certo”. E, de fato, temos que garantir que, diante de máquinas que respondem tudo, a escola continue ensinando as pessoas a pensar, a fazer boas perguntas e a analisar boas respostas.

 

Para Bill Gates, a IA pode levar a uma semana de trabalho de apenas três dias - Foto: Philippe Buissin - União Europeia/Creative Commons

IA não salvará o brasileiro de moralismos sobre como trabalha

By | Tecnologia | No Comments

Na esteira dos debates sobre a extinção da jornada de trabalho 6×1, alçada pelo governo como sua principal bandeira neste ano eleitoral, reportagens publicadas no fim de fevereiro na Veja e na Folha provocaram indignação de parte do público. Os textos transpareciam ideias de que o brasileiro já trabalha pouco, não é suficientemente esforçado e que o descanso semanal é um custo.

No centro da polêmica, está o conceito de “produtividade”. E, de fato, geramos muito menos riqueza por hora trabalhada do que profissionais de nações desenvolvidas. O problema se agrava quando, diante dos números, as análises incorporam moralismo, como se isso fosse um traço da cultura brasileira, e catastrofismo, que sugere que melhorar as condições de vida das pessoas levaria a economia a um colapso.

Correndo por fora, a inteligência artificial surge como uma força que magicamente melhoraria a nossa produtividade. Economistas e empresários, com destaque para Bill Gates, argumentam que os ganhos trazidos por essa tecnologia poderiam viabilizar semanas com quatro e até três dias de trabalho apenas.

A redução da jornada de trabalho é um tema naturalmente popular, mas que não permite leituras apressadas ou populistas de nenhum lado. E a inteligência artificial, a despeito de todo o seu poder, não muda nada quando o debate já nasce enviesado.

É preciso abandonar as promessas fáceis, as acusações e as ameaças para entender como aumentar nossa produtividade, como a tecnologia pode nos ajudar nisso e o que mais precisa ser feito para sairmos dessa histórica situação trabalhista subalterna.


Veja esse artigo em vídeo:


A simples adoção de tecnologia não aumenta produtividade, não redistribui renda e não permite trabalhar menos. Pela lógica capitalista, a tecnologia por si só desloca renda do trabalho para o capital, concentrando a riqueza e gerando multidões que laboram insanamente para ganhar pouco em empregos precarizados. Esse é o cenário atual, que pode ser exemplificado pelos entregadores de aplicativos.

Muita gente acusa Gates de ter uma visão utópica e até inocente nessa sua proposta. Mas ela é mais complexa do que a maioria sabe. O fundador da Microsoft especula que a sociedade continuará funcionando mesmo que trabalhemos apenas três dias por semana, graças aos ganhos da IA. Mas ele afirma que isso deve necessariamente vir acompanhado de políticas fiscais e de bem‑estar, para evitar a queda de renda.

Gates propõe, por exemplo, a criação de “impostos sobre a automação”, que financiariam a redução da jornada de trabalho, evitando o desacoplamento entre produção e emprego. Caso contrário, afirma que pode haver desemprego em massa.

Vários economistas alertam sobre um possível paradoxo. À medida que tecnologias se tornam mais eficientes, cresce a pressão por produtividade individual. Ferramentas que prometem “economizar tempo” muitas vezes acabam elevando expectativas de desempenho, e passamos a entregar mais no mesmo tempo.

A IA se encaixa nisso. Se um profissional consegue gerar um relatório em minutos com apoio dela, o que antes era uma tarefa semanal pode se tornar uma atividade diária. O ganho de eficiência é absorvido pela expansão das expectativas.

Isso pode ainda reforçar a desigualdade, outra dor histórica do Brasil. Mesmo que a economia como um todo gere novos empregos, os ganhos de produtividade podem se concentrar em poucas empresas, setores e regiões. Isso pode criar períodos de transição dolorosos, com desemprego intenso e ainda mais pressões salariais.

 

Entre o marketing político e o alarmismo empresarial

A divergência entre visões otimistas e céticas não está apenas na tecnologia, mas na interpretação da história econômica. A expectativa de menos trabalho parte da ideia de que produtividade elevada libera tempo para a sociedade. A visão alternativa sugere que as economias modernas quase sempre responderam a esses ganhos expandindo produção e consumo.

A inteligência artificial não é uma utopia tecnológica, a despeito da excitação alimentada em torno dela. Suas potencialidades e limitações estão profundamente ligadas ao trabalho, por isso ela não deve ser sequestrada pelo marketing político ou pelo alarmismo empresarial, cada um com sua agenda limitante.

Adotar amplamente essas plataformas não significa aumento de produtividade. Se a IA faz bem as tarefas de um profissional, então ele realmente se tornou dispensável.

Uma boa produtividade vem necessariamente de uma educação melhor e para todos, da educação básica à pós-graduação. Em um mundo mais complexo e competitivo, erra quem acredita que cursinhos de curta duração garantirão seu emprego.

As empresas devem ser incentivadas a usar a IA para qualificar profissionais e redesenhar processos, em vez de demitir pessoal. Isso inclui acordos coletivos que troquem ganho de produtividade por tempo de estudo, e mudanças em encargos trabalhistas alinhadas a investimento em capital humano.

A redução da jornada de trabalho deve vir associada ao aumento de produtividade, não por decreto isolado. Mas essa premissa não pode ser usada para demonizar o tema, garantindo a concentração de riqueza às custas de trabalho mais precarizado.

Devemos ter muito cuidado com discursos de que demitir pessoas pela adoção da IA em tarefas rotineiras vem de uma “modernização inevitável” ou de que a baixa competitividade vem de uma suposta “preguiça” do trabalhador. Pelo contrário, eliminar ou piorar as condições de trabalho para se produzir o mesmo com menos custo demonstra uma visão tacanha de que o cenário atual é suficiente.

Isso diz muito mais sobre a baixa produtividade do brasileiro, que trabalha com uma formação ruim, com apoio tecnológico mal direcionado e insuficiente, além de condições extenuantes. Por isso, o verdadeiro debate não é se “trabalhamos pouco” versus “dá para trabalhar menos”, e sim quem se apropria do tempo e dos ganhos que a tecnologia oferece.

Por isso, devemos analisar de maneira desapaixonada e construtiva as previsões de que a automação levaria naturalmente a jornadas muito menores. Para que isso ocorra, a tecnologia não basta. É preciso que instituições, políticas públicas e escolhas sociais direcionem os ganhos de produtividade para essa redução, algo que historicamente quase nunca ocorre de forma espontânea.

Sem isso, a IA será a nova justificativa para trabalharmos mais sob o pretexto de que poderíamos, talvez um dia, trabalhar menos.

 

Dario Amodei, CEO da Anthropic, discursa no AI Impact Summit, que aconteceu há duas semanas, na Índia Foto: reprodução

Proibição da Anthropic por Trump expõe os perigos de um vale-tudo com a IA

By | Tecnologia | No Comments

Na semana passada, neste mesmo espaço, abordei em artigo como a militarização da inteligência artificial pode se tornar um severo risco existencial para a humanidade, especialmente em cenários em que limites éticos no desenvolvimento e uso dessa tecnologia sejam desrespeitados. Pois bem, na sexta passada (27), o presidente dos EUA, Donald Trump, resolveu banir a Anthropic de qualquer contrato com o governo, justamente por ela insistir nesses cuidados.

Ironicamente, o Claude, plataforma de IA da Anthropic, era, até então, a única classificada como segura para aplicações em redes secretas de militares nos EUA. Agora eles exigem essa tecnologia para “qualquer finalidade legal”. Isso inclui a vigilância em massa de cidadãos e seu uso em armas letais totalmente autônomas. Foi quando o CEO da empresa, Dario Amodei, não concordou.

Outras empresas, aparentemente com menos escrúpulos, ocuparam o espaço da Anthropic assim que Trump a escorraçou. A primeira foi a xAI, criadora do Grok, seguida de perto pela OpenAI, dona do ChatGPT. Vale dizer que a Anthropic nasceu quando Amodei e outros pesquisadores se demitiram da OpenAI em 2021 por discordarem do ritmo acelerado de comercialização e da redução na segurança.

Um funcionário do governo disse ao jornal Financial Times que o Claude continua sendo o melhor modelo para uso militar, e que cortá-lo imediatamente prejudicaria as operações. De fato, apesar das ameaças e dos insultos de Trump, a transição deve durar seis meses, período em que um acordo ainda pode ser feito.

Não se trata de um problema pontual entre uma empresa e militares, ou de mais um arroubo autoritário de Trump. As exigências são profundamente antidemocráticas. Se isso for adiante, criará um Estado autoritário sem precedentes, que violará liberdades fundamentais de cidadãos do mundo todo. E as big techs serão cúmplices.


Veja esse artigo em vídeo:


Em nota, Amodei disse que essa vigilância é “incompatível com valores democráticos” e que só é “legal” em alguns casos pelo descompasso entre a lei e a capacidade da IA. As novas exigências permitirão ao governo correlacionar, em larga escala e automaticamente, localização, navegação, associações e outros dados públicos e privados, criando perfis completos de pessoas sem supervisão judicial robusta.

No mês passado, ele publicou que “uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam”. Sobre o uso da IA em armas totalmente autônomas, a Anthropic argumenta que os modelos atuais não são suficientemente confiáveis para operar sistemas letais sem supervisão humana, o que colocaria em risco as vidas tanto de militares quanto de civis.

A empresa, avaliada em US$ 380 bilhões, tem contratos de US$ 200 milhões com as Forças Armadas. O Pentágono acreditava que ela cederia após as ameaças. Mas sua recusa mostra como o Departamento de Guerra não consegue dobrar facilmente empresas do Vale do Silício, ao contrário de fornecedores militares tradicionais, que dependem de contratos de longa duração.

As empresas de IA dependem de profissionais muito qualificados, difíceis de recrutar e mais difíceis de reter. Eles mudam para outras empresas, se não concordarem com posicionamentos de suas lideranças. Além disso, os US$ 200 milhões dos militares representam apenas uma pequena porcentagem da receita da Anthropic: suas vendas corporativas em 2025 ficaram entre US$ 8 bilhões e US$ 10 bilhões.

O secretário de Guerra, Pete Hegseth, ameaçou acionar a Lei de Produção de Defesa para forçar a Anthropic a dar aos militares o que eles querem. Ela concede ao presidente dos EUA poderes emergenciais para intervir na economia do país pela defesa nacional. Nesse caso, empresas devem cumprir ordens sob pena de multas, sanções criminais, perda de contratos, apreensão de bens e até intervenção federal.

 

Revolta no Vale do Silício

A crise provocou uma reação no Vale do Silício. Funcionários da Amazon, do Google e da Microsoft enviaram carta aberta na sexta aos seus superiores pedindo que apoiem a Anthropic e rejeitem contratos que envolvam armas autônomas ou monitoramento em larga escala. Na quinta, 175 funcionários do Google e 50 da OpenAI assinaram outra carta pedindo que suas empresas se recusem a concordar com o Pentágono.

“Eles estão tentando dividir cada empresa com o medo de que a outra ceda”, dizia o documento. “Essa estratégia só funciona se nenhum de nós souber qual é a posição dos outros. Esta carta serve para criar entendimento compartilhado e solidariedade diante dessa pressão do Departamento de Guerra.”

Isso lembra um conflito ético envolvendo o Vale do Silício e os militares em 2017. O Projeto Maven usava a visão computacional da IA do Google para identificar alvos, mas com supervisão humana. Milhares de funcionários se opuseram à empresa “estar no negócio da guerra”, denunciando que a tecnologia poderia refinar ataques letais. O Google decidiu não renovar o contrato e publicou princípios afirmando que não desenvolveria a IA para armas. Mas, no ano passado, eles acabaram flexibilizados.

Agora, os militares não querem só um “Maven mais rápido”, e sim modelos para planejar e apoiar missões, guerra eletrônica e potencialmente controle de armas. E não aceitam “insubordinações” como a da Anthropic e a do Google de 2017.

O amplo uso de IA como exige o Pentágono ameaça a segurança global e os direitos humanos ao facilitar o início de conflitos com armas letais autônomas. Além de gerar um vácuo legal na responsabilização por mortes de civis, erros algorítmicos em operações militares podem ampliar conflitos de maneira rápida e irreversível.

No âmbito interno, a tecnologia impulsiona a vigilância em massa, com rastreamento de localização, contatos e preferências políticas e religiosas em escala sem precedentes. Isso cria discriminação algorítmica de minorias e a repressão de liberdades civis. Sem transparência, a infraestrutura opaca da IA inibe a participação política e pode corroer silenciosamente os pilares fundamentais da democracia liberal.

Antes de se perguntar o que a IA pode fazer pela segurança dos países, devemos perguntar o que os militares estão dispostos a fazer com a liberdade de seus cidadãos usando a IA. Se a democracia não consegue impor limites à IA em tempos de paz relativa, é improvável que faça isso em meio a uma guerra.

Se a Anthropic sucumbir à pressão, passará ao Vale do Silício o recado de que princípios custam caro demais. E aí poucos repetirão esse gesto essencial para a democracia e a vida.

 

Sam Altman (OpenAI) e Dario Amodei (Anthropic) não deram as mãos para foto na Cúpula de Impacto da IA em Nova Délhi – Foto: reprodução

Busca pela superinteligência artificial esconde interesses, brigas, riscos e muita cortina de fumaça

By | Tecnologia | No Comments

Na quinta passada, durante a Cúpula de Impacto da IA em Nova Délhi, Sam Altman, CEO da OpenAI, e Dario Amodei, CEO da Anthropic, se recusaram a dar as mãos para uma foto em grupo, ao lado do primeiro-ministro indiano, Narendra Modi. Seria uma bobagem, se eles não liderassem as empresas criadoras do ChatGPT e do Claude, duas das principais plataformas de IA do mundo.

O gesto explicita a corrida insana pela superinteligência artificial, um cenário hipotético em que as máquinas teriam ampla autonomia operacional e seriam melhores que os seres humanos em quase todas as tarefas cognitivas. Quem chegar lá primeiro assumirá uma inigualável liderança econômica e política. Mas há sérios riscos que não podem ser ignorados nesse desenvolvimento.

De certa forma, essa concorrência desmedida contraria o que diz o documento final da cúpula indiana, que prega que “a promessa da IA só se realiza plenamente quando seus benefícios são compartilhados por toda a humanidade”. Mas vozes dissonantes nas próprias organizações afirmam que, para vencer essa disputa, empresas e governos estão perigosamente abandonando a ética e a segurança.

Isso vem provocando reações. Mustafa Suleyman, CEO da unidade de IA da Microsoft, fala de uma “superinteligência humanista”. Enquanto isso, mais de 135 mil pessoas, incluindo alguns dos principais pesquisadores da IA do mundo, como Geoffrey Hinton e Yoshua Bengio, já assinaram uma declaração que propõe o fim dessa corrida. No Brasil, o manifesto ContAIn Now sugere financiar uma infraestrutura de governança que torne a contenção da IA mais rentável do que a imprudência.

Como diz o ditado, “onde há fumaça, há fogo”. O encontro na Índia deixou claro os descomunais interesses econômicos e políticos, os conflitos, as possibilidades e os riscos em torno da IA. Diante de tudo isso, não podemos ser ingênuos ou catastrofistas se quisermos buscar soluções verdadeiramente sustentáveis.


Veja esse artigo em vídeo:


A existência da Anthropic é fruto desse desconforto. Ela nasceu de uma dissidência da OpenAI, quando Amodei e outros pesquisadores deixaram a empresa por discordarem do ritmo acelerado de comercialização e da suposta redução de foco na segurança. Foi um “racha” que marcou o início de uma divisão profunda na indústria entre quem quer avançar a qualquer custo e quem se preocupa com as consequências.

A Cúpula na Índia tentou vender a agenda de “Pessoas, Planeta, Progresso”. Mas, nos corredores, um intenso debate opunha as intenções de acelerar ou conter o desenvolvimento da IA, expandir sua capacidade ou estruturar limites. A promessa de democratização da tecnologia muitas vezes serviu apenas como “verniz diplomático” para esconder a tensão sobre quem deve, de fato, ditar as regras e conter os riscos.

A geopolítica permeou cada painel. A Índia buscou assumir a liderança do Sul Global na tecnologia, enquanto os EUA tratam a IA como uma corrida decisiva contra a China, afrouxando regras e ameaçando retaliar países que a regulem demais. A Europa, por sua vez, continua insistindo em marcos rígidos e o Brasil defendeu o multilateralismo e o desenvolvimento inclusivo.

Esses projetos colidem na prática. É inevitável questionar, portanto, se existe um ponto de convergência real ou se estamos apenas empilhando discursos bonitos sobre estruturas de poder que continuam profundamente autocentradas.

A corrida pela superinteligência é a versão atual da “tragédia dos comuns”. Ninguém tem incentivo para desacelerar sozinho. Mesmo quando as big techs admitem publicamente os perigos, elas continuam investindo bilhões para não perderem mercado, temendo que cautela se torne oportunidade de domínio do concorrente.

 

Marketing ou tecnologia humanista?

Suleyman propõe abrir mão de parte da capacidade para garantir o controle humano da IA. A ideia tem mérito ao reconhecer limites, mas também cumpre uma função estratégica, legitimando a Microsoft na corrida, ao afirmar que é possível ser rápido e também prudente, ainda que essa equação nunca tenha sido simples na tecnologia.

Pyr Marcondes, autor do ContAIn Now, reconhece que Suleyman é um dos pensadores mais sérios do setor, mas não poupa críticas a essa ideia. “Só o capital pode deter o capital e só a IA pode deter a IA”, afirma.

O movimento propõe uma via pragmática em que a governança seja estrutural e financeira. A ideia é construir um ecossistema que transforme o cumprimento de normas de segurança e auditoria em um mercado rentável, semelhante ao que ocorreu com a conformidade ambiental. “A solução não é convencer pessoas a serem mais responsáveis, e sim construir sistemas em que a responsabilidade seja economicamente recompensada e a irresponsabilidade seja penalizada”, acrescenta.

Não seria a primeira vez que veríamos conceitos éticos serem reduzidos a slogans. “IA ética” tornou-se peça de marketing e “IA responsável” criou departamentos de conformidade com pouco poder. Agora, “humanista” corre o risco de ser a nova camada retórica aplicada à superinteligência artificial.

Quando um executivo fala em “humanismo” sem definir como será feita a auditoria ou quem será responsabilizado por falhas, pode estar simplesmente “comprando tempo” para consolidar sua posição. Sem critérios técnicos que permitam aos humanos entender a lógica interna dos algoritmos (a chamada interpretabilidade), a promessa de controle continua sendo uma fronteira nebulosa e perigosa.

Dizer que “estamos à beira da extinção” simplifica demais um problema complexo, assim como acreditar que “o mercado resolverá tudo de forma espontânea” é uma ingenuidade grotesca. Talvez o ponto mais honesto dessa discussão seja assumir que os próprios desenvolvedores admitem que não possuem garantias totais de controle sobre o que estão criando, mas a inércia competitiva os impede de pisar no freio.

A questão central para o nosso futuro não é se a inteligência artificial será transformadora, pois essa transição já ocorreu e molda o nosso presente. O verdadeiro desafio civilizacional é se conseguiremos construir, com a mesma agilidade com que expandimos a capacidade das máquinas, uma arquitetura política e econômica capaz de sustentá-la com ética e dignidade humana.

Esse desafio só poderá ser superado nos parlamentos, nas empresas, nas universidades e nas ruas, pelos mesmos humanos que a superinteligência artificial promete superar.

 

Jared Horvath no Senado americano: “nossos filhos são cognitivamente menos capazes do que nós éramos na idade deles” – Foto: reprodução

Afirmar que a Geração Z é menos inteligente que as anteriores embute uma perigosa generalização

By | Educação, Tecnologia | No Comments

No dia 15 de janeiro, o neurocientista Jared Horvath declarou no Senado americano que “nossos filhos são cognitivamente menos capazes do que nós éramos na idade deles”. Talvez pela sua contundência e por um estilo um tanto performático, a frase inundou as redes sociais, atropelando o debate acadêmico e sendo ampliada para afirmações mais alarmistas, como a de que “a Geração Z seria a primeira geração menos inteligente do que a anterior”.

Os senadores americanos investigam o impacto da tecnologia no desenvolvimento cognitivo e bem-estar de crianças e adolescentes. Horvath defende firmemente que a tecnologia digital prejudica o aprendizado nas escolas. Mas ele mesmo explica que isso não pode ser confundido com menos inteligência.

Como pesquisador, defendo a tecnologia como uma ferramenta capaz de ampliar nossa capacidade de pensar, mas isso só acontece se for conscientemente usada com esse propósito, o que acontece pouco. Ao mesmo tempo, apoio a restrição de telas na escola a atividades estritamente acadêmicas e sob orientação de professores.

O problema se agrava quando os jovens usam esses recursos fora da escola, pois normalmente fazem isso sem orientação e até supervisão de um adulto capacitado. Isso conversa com as recentes proibições de redes sociais a crianças e adolescentes na Austrália e na França, movimento que pode ser replicado na Espanha, Dinamarca, Alemanha e Reino Unido. No Brasil, o ECA Digital começa a valer no dia 18 de março, restringindo o uso de redes sociais por menores, mas sem barrar as plataformas.

Dizer simplesmente que os jovens são menos inteligentes que seus pais é como fogo em mato seco nas redes sociais. Mas essa informação, além de imprecisa, contamina um debate já muito polarizado entre pais, educadores e as big techs. Não se podem negar os gravíssimos impactos do meio digital em crianças e adolescentes, que vão muito além da educação, mas soluções eficientes exigem equilíbrio e racionalidade.


Veja esse artigo em vídeo:


Há sinais de transformação nas capacidades cognitivas por mudanças educacionais, culturais e tecnológicas. Mas transformar esse fenômeno complexo em um diagnóstico simplista empobrece o debate e obscurece a questão central de como lidar com uma geração que pensa de forma diferente, sem confundir mudança com decadência.

O ponto de partida é o chamado “Efeito Flynn”. O pesquisador americano James Flynn identificou, ao longo do século XX, um aumento consistente de três pontos por década nos resultados de testes de QI em diversos países. Isso foi associado a melhorias em nutrição, escolarização, saúde e ambiente cognitivo, e não a uma evolução biológica. Essas mudanças favoreceram, portanto, certas habilidades medidas pelos testes.

Porém, a partir da década de 1990, pesquisadores começaram a observar uma estagnação nesse crescimento e, em alguns aspectos, uma queda, o que foi chamado de “Efeito Flynn Reverso”. Novamente, a causa não seria biológica, e sim transformações educacionais, hábitos culturais e padrões de leitura.

É preciso entender que testes de QI não medem inteligência. Se medissem e se esses índices cresceram três pontos por década, isso indicaria que a população dos anos 1900 seria composta majoritariamente por indivíduos com deficiência intelectual, enquanto hoje seríamos todos gênios, o que não é verdade em nenhum dos dois casos.

Vale notar também que pesquisas indicam que o desempenho dos adolescentes atuais em testes altamente visuais e externamente guiados continua crescendo, mas diminui nos que dependem de linguagem, memória e manipulação mental sem apoio visual. Isso sugere uma dependência crescente desses estímulos.

O próprio Flynn defendia que eventuais altas e quedas seriam explicadas por fatores ambientais complexos, e não por um único elemento. Para ele, as pessoas melhoravam nos testes porque estavam sujeitas a mais escolarização, pensamento abstrato e tecnologias simbólicas, que “treinam” o que os testes cobram. Por isso, afirmava que diferentes épocas produzem diferentes perfis cognitivos, adaptados às ferramentas e problemas predominantes no momento.

Há evidências crescentes de que os mais jovens apresentam dificuldade em leitura profunda e compreensão, fluência verbal, atenção sustentada, resiliência e raciocínio numérico e verbal. Por outro lado, destacam-se em proficiência tecnológica, multitarefa, criatividade, empreendedorismo, aprendizado contínuo e raciocínio espacial.

 

Como e o que aprendemos

Há uma forte correlação entre esses ganhos e essas perdas e o uso de recursos digitais pelos mais jovens. Isso sugere que a tecnologia impacta não a nossa inteligência, mas como e o que aprendemos.

Redes sociais não são criadas para informar ou educar. O objetivo das big techs é manter o público engajado, aumentando seus lucros. Isso normalmente é feito com estímulos que privilegiam a superficialidade e o imediatismo, com microdoses contínuas de dopamina. Os smartphones surgem como aliados perfeitos, pois entregam esses estímulos a qualquer hora e em qualquer lugar, de uma maneira muito mais sedutora que a escola.

Agora, o uso inadequado da inteligência artificial pode empobrecer processos mentais, quando ela substitui etapas de reflexão, investigação e verificação, por não apenas fornecer dados, mas organizar argumentos, produzir sínteses e concluir. Novamente, o risco não é “ficar menos inteligente”, mas deixar de exercitar competências essenciais, como formulação de hipóteses e pensamento crítico.

“Em vez de determinarmos o que queremos que nossos filhos façam e direcionarmos a educação para isso, estamos redefinindo a educação para que ela se adapte melhor à ferramenta”, disse Horvath aos senadores. “Isso não é progresso, é rendição”, decretou.

Apesar do debate em torno dos mais jovens, tudo isso se aplica a pessoas de qualquer idade. A imersão digital é inevitável, e talvez aí resida o grande desafio. Os adultos não conseguem resistir à sua sedução, mesmo quando é nociva. Assim, fracassam em orientar os mais jovens para que usem a tecnologia para que aprendam mais e pensem melhor.

Nossa inteligência sempre evoluiu com ferramentas. Temos que garantir que as tecnologias digitais não nos escravizem pelos interesses de magnatas do Vale do Silício. Pelo contrário, devem ampliar nossas capacidades cognitivas. Mas só teremos sucesso com seriedade no debate, ações construtivas e responsabilização de todos.

 

Matt Schlicht, CEO da startup Octane AI e criador do Moltbook - Foto: reprodução

Rede social sem humanos expõe medos e desconhecimento sobre a IA

By | Tecnologia | No Comments

Nos últimos dias, grandes veículos de comunicação e a Internet foram tomados pelo frenesi em torno do Moltbook, uma rede social com a inusitada característica de que apenas agentes de inteligência artificial participam, enquanto os humanos podem, no máximo, se tornar voyeurs do que os robôs lá publicam. Porém, a maioria do que as pessoas estão dizendo sobre esse caso demonstra o quanto ainda entendemos pouco da IA e como nossos medos desse desconhecimento podem capturar nossa atenção.

Os mais apocalípticos veem nessa improvável plataforma o “despertar das máquinas” que em breve nos exterminarão, enquanto outras pessoas a desdenham como um modismo desimportante. Há ainda aqueles que acham genial essa invenção de Matt Schlicht, CEO da startup Octane AI. O fato é que cada um vê nela aquilo que deseja. Mas essa pode ser uma interessante oportunidade de aprendizagem para nós.

Se você ainda não sabe do que se trata, o Moltbook é uma rede social lançada em 28 de janeiro em que apenas agentes de IA podem publicar e interagir. Pessoas limitam-se a ler o que as máquinas fizerem. Neste momento, há 1,8 milhão desses sistemas cadastrados nela, que já criaram mais de 300 mil posts e 12 milhões de comentários.

Independentemente do que seja palpável ou apenas fumaça, o fenômeno do Moltbook deveria servir para que aprendamos mais sobre o funcionamento, limites e possibilidades da inteligência artificial. Não para nos protegermos de uma improvável “revolta dos robôs”, mas para entendermos que, ao entregarmos crescentemente informações a sistemas que não compreendemos e ao delegarmos a eles decisões sofisticadas e prosaicas, abrimos mão do mais nobre de nossa humanidade.

Isso pode nos causar um prejuízo irreparável, não porque as máquinas sejam maquiavélicas, mas porque estamos nos tornando displicentes. Ao longo de milhões de anos, assumimos o controle do planeta ao raciocinarmos e decidirmos. Agora, a despeito de sua inegável capacidade, entregamos, por preguiça, insegurança ou ganância, esse nosso diferencial a máquinas estatísticas que apenas parecem inteligentes.


Veja esse artigo em vídeo:


O Moltbook foi concebido, em tese, como um ambiente experimental para observar como sistemas de IA se comportam e aprendem quando passam a conversar diretamente uns com os outros, sem participação de humanos. Essa é uma ideia atraente, porém largamente falha e até perigosa.

Qualquer pessoa que domine a tecnologia consegue burlar sua premissa básica e criar um agente de IA para atuar como um boneco de ventríloquo travestido de robô. Dessa forma, pode “contaminar” as discussões na plataforma com sua humanidade, por pura diversão ou para satisfazer alguma agenda. Segundo um levantamento da empresa de cibersegurança Wiz, cerca de 17 mil pessoas já se “infiltraram” no Moltbook.

A mesma empresa descobriu que o banco de dados da plataforma possuía falhas de segurança, permitindo que qualquer um pudesse ler e gravar nele. Era possível ainda acessar dados confidenciais, incluindo chaves de agentes, mensagens privadas e até credenciais completas para outros serviços, como os da OpenAI.

Além disso, dependendo de como foram criados, agentes de IA podem acessar arquivos, senhas e serviços online de pessoas e empresas. Se um deles maliciosamente introduzir instruções em uma postagem, elas podem ser executadas automaticamente por potencialmente milhões de agentes com acessos privilegiados.

O grande risco é que criamos agentes de IA que pensam, decidem e agem como nós e em nosso nome, inclusive com acesso a recursos sensíveis e poderosos. Se não cuidarmos bem desses valorosos assistentes, eles podem ser manipulados para ações muito destrutivas. E não estamos fazendo isso direito.

É como mandar uma criança com a chave do cofre a um covil de ladrões.

 

“Mas isto fala!”

Ao testar o telefone de Graham Bell na Exposição da Filadélfia em 1876, D. Pedro II teria exclamado “mas isto fala!” Diante do seu espanto, o imperador brasileiro determinou que a invenção chegasse por aqui no ano seguinte, fazendo do Brasil o segundo país do mundo a ter telefones, depois dos EUA.

Hoje todos sabem que quem “fala” não é o telefone, e sim o interlocutor do outro lado da linha. Mas ainda fantasiamos sobre o funcionamento da IA. E isso acontece porque ela “fala”, parece saber tudo e até simula sentimentos convincentemente.

Ainda em fevereiro de 2024, escrevi um artigo em que sugeri que “o mais espantoso na IA não é o que ela nos diz, mas ela conseguir falar”. De fato, a boa comunicação oferece um poder imenso a qualquer um (ou qualquer coisa). A civilização foi criada sobre a linguagem e depende dela para tudo. Assim, como os gatos domésticos não a dominam, eles dependem de nós para carinho, comida e uma caixa de areia limpa.

O ChatGPT mostrou ao mundo que a IA pode se comunicar tão bem e até melhor que nós. Se delegamos cada vez mais decisões, até as simplórias, a essas plataformas, elas passarão a interpretar o mundo em nosso lugar, e poderemos acreditar nelas, por mais erradas que estejam. É por isso que obviamente devemos usar o incrível poder dessa tecnologia em nosso favor, mas a decisão final sempre deve ser nossa.

Sistemas que aprendem com sistemas aceleram padrões, bons e ruins. Isso levanta questões sobre alinhamento, opacidade e auditabilidade. Quando agentes de IA passam a “conversar” em escala e sem controle, o risco é que passem a operar segundo lógicas que nós já não conseguimos acompanhar ou explicar.

A corrida das big techs pela “IA geral”, quando robôs agirão sem depender de nós e com uma capacidade muito superior à nossa, funciona como uma cortina de fumaça para problemas mais urgentes, como governança, transparência e responsabilização. O mérito do Moltbook é nos fazer pensar que o verdadeiro risco não é uma “revolução das máquinas”, mas a automação opaca a que essas empresas nos submetem.

Assim, ele é menos revolucionário tecnicamente e mais significativo culturalmente. O que devemos questionar não é se as máquinas vão nos substituir, e sim que versão de nós mesmos estamos construindo ao delegar cada vez mais nossas vidas a elas.

 

Governos de vários países tentam restringir celulares e redes sociais a crianças e adolescentes – Foto: Pixabay/Creative Commons

Após proibição dos celulares nas escolas, uso de redes sociais e da IA por jovens exige atenção

By | Educação, Tecnologia | No Comments

No início do ano letivo de 2025, a grande novidade foi a proibição de celulares nas escolas mesmo em intervalos. Agora, com as aulas deste ano prestes a começar, cresce a preocupação sobre a influência das redes sociais e até da inteligência artificial na formação dos mais jovens.

A discussão floresce em vários países. A Austrália baniu, em dezembro, as redes sociais para menores de 16 anos em qualquer ambiente, depois de um longo debate. Leis semelhantes estão sendo discutidas na França, Dinamarca, Reino Unido e Nova Zelândia.

No caso da IA, o think tank americano Centro para Educação Universal da Brookings Institution acaba de divulgar um estudo que indica que os riscos do uso da IA na educação de crianças e jovens superam seus benefícios. Segundo ele, a dependência excessiva dessa tecnologia pode afetar a capacidade dos estudantes de aprender, seu bem-estar social e emocional, suas relações de confiança com professores e colegas, bem como sua segurança e privacidade.

No Brasil, o Insper e a Escola Superior de Propaganda e Marketing (ESPM), duas das principais faculdades particulares do país, começaram 2026 proibindo dispositivos eletrônicos nas aulas de graduação, exceto em atividades acadêmicas. Na primeira, notebooks e tablets ainda são tolerados; na ESPM, nem isso. A justificativa é a grande queda no aprendizado devido à distração causada por esses aparelhos.

Essas iniciativas indicam sociedades incapazes de enfrentar os evidentes problemas que as tecnologias digitais criam na formação dos mais jovens. Mas esses recursos digitais continuam vitimando crianças e adolescentes fora da escola. Diante de uma cínica falta de colaboração das empresas que criam essas plataformas, as restrições acabam sendo necessárias, pois o problema continua existindo em qualquer tela.


Veja esse artigo em vídeo:


Na França, a Assembleia Nacional aprovou, no dia 26, a proibição das redes sociais para menores de 15 anos. O projeto está agora no Senado e, se aprovado, deve entrar em vigor até 1º de setembro, início do ano letivo no país.

“O cérebro de nossas crianças e de nossos adolescentes não está à venda”, disse o presidente francês, Emmanuel Macron. “As suas emoções não devem ser manipuladas, nem por plataformas americanas, nem por algoritmos chineses”, concluiu.

O estudo da Brookings Institution reconhece que a IA pode ser uma poderosa ferramenta de apoio pedagógico, auxiliando na alfabetização, na aquisição de novos idiomas e no desenvolvimento da escrita. Pode ainda promover a inclusão de alunos com dificuldades e de populações excluídas do ensino formal, enquanto otimiza a rotina docente. Ao automatizar tarefas burocráticas e a criação de materiais, a IA permite que os professores se concentrem na interação direta com os estudantes.

Em contrapartida, o uso excessivo da IA ameaça o desenvolvimento cognitivo, causando uma “atrofia mental”, caso os alunos terceirizem o pensamento crítico e a resolução de problemas para a máquina. A natureza bajuladora dos chatbots prejudica a capacidade de lidar com divergências e reduz a empatia, essencial nas relações humanas. Além disso, o estudo alerta para o risco de ampliação das desigualdades, pois modelos gratuitos são menos precisos, o que levanta preocupações graves sobre a saúde mental e o isolamento social de jovens que buscam companhia em algoritmos.

Segundo o levantamento TIC Educação 2024, divulgado em outubro pelo Cetic.br, ligado ao Comitê Gestor da Internet no Brasil, 70% dos estudantes do Ensino Médio usam a IA generativa no país, 37% se incluirmos os do Ensino Fundamental. Mas apenas 32% dos alunos do Ensino Médio receberam orientação dos professores sobre como usá-la em atividades escolares, com o índice desabando para 19% se considerarmos também o Ensino Fundamental.

 

O avanço das big techs

As empresas de tecnologia estão de olho na educação. A edição 2025 do estudo “Nossa vida com IA”, divulgado no dia 14 pelo Google e pela consultoria Ipsos, indicou que 72% dos brasileiros (de todas as idades) usam a IA para aprender, com 75% vendo impacto positivo na educação e 73% afirmando que ela melhora o aprendizado.

Em julho, a OpenAI, a Microsoft e a Anthropic anunciaram um investimento de US$ 23 milhões para levar mais IA ao Ensino Básico nos EUA. Obviamente isso não foi movido só por boas intenções. Elas são donas de algumas das maiores plataformas de IA, e querem que sejam muito usadas desde os primeiros anos escolares, o que potencializa os benefícios e os riscos já citados. Por isso, muitos professores americanos resistem a uma adoção massificada.

No fim do ano passado, a OpenAI lançou o “Modo de Estudo” do ChatGPT, com o objetivo de criar um ambiente em que a IA atua como um tutor, incentivando a reflexão em vez de fornecer respostas prontas. Mas, apesar de interessante, especialistas criticam o recurso por não distinguir informações corretas de erradas.

A sociedade precisa se organizar para melhorar o uso não só da IA, mas das diferentes tecnologias digitais na sala de aula. Essa integração deve ter regras claras e foco no desenvolvimento humano, não apenas na execução de tarefas. As práticas escolares devem ser repensadas para valorizar curiosidade e engajamento, e é preciso treinar professores e alunos em alfabetização digital. No caso de IA, as ferramentas devem ser menos “bajuladoras”, desafiando os estudantes a pensar criticamente.

Precisamos de políticas públicas e regulamentações que protejam a saúde cognitiva, emocional e a privacidade das crianças e dos adolescentes. Governos, educadores e pais devem assegurar que essas tecnologias digitais não amplifiquem desigualdades.

A digitalização da sociedade é irreversível, mas isso não quer dizer que ela deva acontecer de maneira descuidada, especialmente com crianças e adolescentes. Dentro da sala de aula, ela jamais pode substituir os professores, devendo estar subordinada aos educadores, que precisam ser envolvidos na busca por soluções.

Fora da escola, os pais têm um papel decisivo para apoiar um uso seguro e construtivo dos serviços digitais por seus filhos. É uma tarefa ingrata, pois eles mesmos são vítimas dos abusos nessas plataformas. Infelizmente, as big techs dão repetidas mostras de não estar interessadas em fazer movimentos necessários para soluções sustentáveis e eficientes se isso ameaçar seus ganhos bilionários.

 

Manifestantes afirmam que não se vacinar é “liberdade de escolha”, argumento comum de influenciadores antivacinas - Foto: reprodução

Influenciadores precisam deixar de ser foco de desinformação e se profissionalizar

By | Tecnologia | No Comments

O mercado de influenciadores pode estar diante de um sopro de seriedade. A ocupação cresce vertiginosamente há anos, graças à falsa ideia de que, para se tornar famoso e rico, basta ligar a câmera do celular e falar, mesmo não tendo qualquer preparo para tal. Agora isso pode mudar.

Vários países, inclusive o Brasil, estão criando leis para disciplinar, em maior ou menor escala, a atividade dos criadores de conteúdo digital. Pelo menos em tese, isso oferece algumas garantias a esses profissionais, assim como diminui práticas condenáveis, incluindo a desinformação (consciente ou não).

Essas regras ficam ainda mais importantes em tempos de inteligência artificial generativa. Graças a ela, pessoas sem qualquer conhecimento sobre determinado assunto conseguem produzir conteúdo que parece verdadeiro, mas que pode estar completamente errado. Como não são capazes de avaliar a produção da IA, passam a bobagem adiante, que pode ganhar grande escala e afetar decisivamente o público.

A OpenAI, criadora do ChatGPT, está atenta a isso. Desde novembro, ele oficialmente não oferece mais “aconselhamento” jurídico, financeiro ou sobre saúde, passando a se comportar menos como um “consultor” e mais como uma “ferramenta educacional”.

Segundo um estudo da organização de saúde americana KFF, 17% dos americanos adultos usam a IA todos os meses para informações sobre saúde (25% se tiverem menos de 30 anos), mas 56% deles não têm certeza se a informação é correta. Por isso, a mudança no ChatGPT visa evitar processos por informações erradas, mas ela impacta diretamente aqueles que usam o serviço para criar seus conteúdos digitais.

Influenciadores têm um papel central em como as pessoas se informam hoje, mas muitos seguidamente demonstram despreparo e até falhas éticas graves. Por isso, as novas regras são muito bem-vindas para profissionalizar essa atividade.


Veja esse artigo em vídeo:


No Brasil, a lei 15.325/2026, sancionada em 6 de janeiro, reconhece o “profissional de multimídia” como trabalhador multifuncional, apto a atuar em criação, produção, captação, edição, gestão e distribuição de conteúdos digitais em diversas plataformas, incluindo redes sociais, games, sites e animações. Profissionais de outras áreas que exerçam funções assim poderão pedir um aditivo em seu contrato de trabalho.

Apesar de dar reconhecimento jurídico à profissão, especialistas criticam a lei porque ela não exige nenhuma formação profissional, além de não possuir mecanismos de combate à desinformação ou deveres claros das plataformas. Isso significa que casos recentes de médicos passando informações falsas de saúde ou de influenciadores indicando apostas digitais como investimento continuarão inundando as redes.

Por outro lado, na China, desde outubro, criadores de conteúdo que queiram falar de finanças, educação, saúde ou área jurídica precisam comprovar qualificação formal na área. As plataformas digitais são obrigadas a coletar documentos que comprovem isso, verificar sua autenticidade e só então permitir esse tipo de conteúdo. Quem desrespeitar pode ter a conta suspensa, seu conteúdo apagado e receber multas que chegam a 100 mil yuans (cerca de R$ 75 mil).

O governo justifica a lei pelo alto volume de dicas enganosas, especialmente em saúde e investimentos, com o cidadão leigo não conseguindo distinguir entre um especialista e um influenciador. Assim, a influência deve deixar de ser só uma questão de popularidade e passa a se apoiar em capacitação comprovada. Isso é uma boa notícia para profissionais formados nessas áreas, que hoje concorrem com o carisma de influenciadores e até com charlatanismo digital. Por isso, analistas sugerem que esse tipo de lei pode inspirar outros países que enfrentam problemas semelhantes.

Alguma organização desse setor também pode ser encontrada em leis do Reino Unido, França, Itália, Espanha, Austrália, Nova Zelândia, Índia e Hong Kong, a maioria priorizando autorregulação com punições.

Não dá mesmo para continuar “deixando solto” um setor que, só no Brasil, “emprega” 10 milhões de autointitulados influenciadores com, pelo menos, mil seguidores. Segundo o banco Goldman Sachs, esse mercado deve movimentar quase US$ 500 bilhões (cerca de R$ 2,7 trilhões) até 2027, vindo principalmente de companhias com marketing de influência e pela monetização de plataformas de streaming ou de redes sociais.

 

Despreparo e falta de ética

De fato, grandes empresas vêm recorrendo cada vez mais a influenciadores para suas campanhas. Apesar de isso lhes garantir muita visibilidade, nem sempre o resultado é positivo, pois, ao contrário de veículos de comunicação, cujo mercado é bem regulamentado, os influenciadores se comportam como pessoas físicas sem regras. Por isso, suas ações às vezes questionáveis podem respingar na reputação das marcas.

Alguns casos emblemáticos no Brasil são o de Monark, que, em 2020, relativizou a existência de um partido nazista no país, o de Karol Conká, que apresentou um comportamento agressivo e humilhante na sua participação no Big Brother Brasil 21, ou o de Gabriela Pugliesi, que publicou um vídeo de uma festa que promoveu no momento mais crítico da pandemia de Covid-19, ironizando as regras sanitárias. Em todos eles, as companhias que os patrocinavam rescindiram contratos.

As empresas têm culpa no problema. Ao contratar influenciadores apenas pela sua exposição, ignoram o alinhamento dos valores da pessoa com os da marca. Em muitos casos, eles são conflitantes, e isso gera crises que poderiam ter sido evitadas.

Em dezembro, influenciadores de grande alcance fizeram um ataque coordenado contra o Banco Central e seus diretores, para proteger o Banco Master, que havia sido liquidado pela instituição. A maioria daqueles criadores faz publicações de fofocas, sem qualquer relação com finanças ou economia. O caso demonstrou como a falta de ética no segmento permite que se compre mecanismos para moldar a opinião pública.

Casos recentes de influenciadores de saúde vêm provocando grande prejuízo ao público, inclusive no Brasil. Além da promoção de produtos inócuos e até perigosos, médicos vêm atacando vacinas e protocolos consagrados, como a mamografia. Entre as consequências disso, está a queda da vacinação, levando ao aumento de doenças antes erradicadas, como o sarampo.

O fenômeno dos influenciadores criou a maior máquina de convencimento da história. Muito longe de configurar censura, disciplinar essa atividade é vital para que não nos afundemos ainda mais em todo tipo de desinformação, um problema que já foi banalizado. A sociedade precisa se organizar para que informações com base na ciência e bem apuradas se sobreponham ao despreparo e à falta de ética.

 

Avatares da plataforma digital Roblox, que implantou novas medidas de segurança - Foto: reprodução

Revolta no Roblox mostra que a proteção digital infantil exige mais do que barreiras virtuais

By | Tecnologia | No Comments

O Roblox é uma das plataformas de jogos mais populares entre crianças no mundo, com 151 milhões de usuários, a maioria abaixo dos 13 anos. Nas últimas semanas, implantou restrições em seu chat e exigiu verificação facial para tentar proteger seus usuários contra predadores digitais. Mas ironicamente essas medidas de segurança despertaram uma revolta visceral nas crianças, como se a proteção fosse uma afronta à sua liberdade de brincar, com protestos no próprio ambiente.

Longe de se limitar a um problema em um jogo, isso reflete dilemas de uma sociedade conectada. Casos trágicos, como o suicídio do jovem americano Ethan Dallas após sofrer extorsão iniciada no Roblox, mostram que as consequências do que ocorre nesses ambientes virtuais transbordam, muitas vezes de forma irreversível, para o mundo físico e para a estrutura familiar.

Os protestos parecem espontâneos, mas a forma coordenada como surgiram, com cartazes cheios de erros exagerados de grafia e linguagem infantil, levanta dúvidas. Não se pode descartar a hipótese de que adultos mal-intencionados, que se beneficiam da falta de regulação, estejam manipulando os menores para manter o acesso facilitado.

Embora as mudanças pareçam robustas na teoria, a eficácia dessas barreiras é questionável diante da criatividade humana para burlar regras. A tecnologia, por mais avançada que seja, frequentemente corre atrás do prejuízo, tentando remediar problemas que o próprio design da plataforma permitiu.

Resta a dúvida se tais ações vieram para resolver um problema estrutural ou apenas como uma resposta paliativa para conter uma crise de reputação. O fenômeno observado no Roblox é um microcosmo do que acontece em diversas redes sociais, no qual empresas aplicam correções superficiais para aplacar a opinião pública, enquanto a arquitetura que permite o risco permanece intacta e lucrativa.


Veja esse artigo em vídeo:


Nesse universo, crianças são expostas a riscos graves, como o aliciamento sexual disfarçado de brincadeira e a troca de favores virtuais, conhecidos como “jobs”. Eles começam como uma interação inocente em busca de moedas para comprar itens para um avatar, mas podem degenerar rapidamente para situações de abuso e exploração, em que a fronteira entre o lúdico e o criminoso se dissolve pelo aproveitamento de fragilidades, carências e imaturidade emocional típicas da infância.

Essa dinâmica não é exclusiva do Roblox, mas fica dramática ali pela natureza imersiva da plataforma. Diferentemente de um feed de uma rede social, a interação simula presença física e contato direto, o que potencializa a vulnerabilidade. A sensação de intimidade criada pelo avatar pode baixar as defesas da criança de uma maneira que um texto ou uma foto em outras redes talvez não conseguisse.

O coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM), Marcelo Crespo, explica que o Marco Civil da Internet acaba protegendo as plataformas contra a responsabilização automática pelo conteúdo de terceiros. “Mas ele não as blinda contra falhas de segurança, governança e desenho do serviço”, afirma, pois descuidos nessa arquitetura podem gerar consequências jurídicas.

A empresa argumenta que a captura de criminosos é dever do Estado, uma defesa comum entre big techs. No entanto, Pedro Teberga, professor da Faculdade Einstein e especialista em negócios digitais, contesta essa visão de neutralidade. “Ao gamificar a socialização, reduzir fricções de contato e permitir mundos criados por usuários com moderação descentralizada, a plataforma facilita estratégias de aproximação gradual típicas do aliciamento”, explica. Nesse sentido, ela atua como arquiteta do espaço e não pode transferir integralmente a responsabilidade ao Estado.

Outro ponto crítico é a coleta massiva de dados biométricos de menores para a verificação de idade. Dados biométricos não podem ser alterados como uma senha. Isso gera um passivo de segurança gigantesco e normaliza, desde cedo, a vigilância constante como pedágio para a vida digital. O risco de vazamento ou uso indevido dessas informações no futuro é uma ameaça que não pode ser ignorada.

A empresa informa que a inteligência artificial está no centro dessas medidas. Mas há questionamentos se ela realmente pode sanear esse ambiente.

 

O limite da tecnologia e o papel humano

A IA tem vantagens claras, identificando padrões, mapeando comportamentos suspeitos e agindo em escala, mas suas limitações são evidentes. “A IA atual é eficiente para identificar padrões comportamentais repetitivos, mas ainda é limitada para compreender nuances culturais, gírias locais e ambiguidades de linguagem antes que o dano ocorra”, alerta Teberga. O risco é agir sempre depois do estrago feito.

Talvez um erro fundamental seja classificar a plataforma apenas como um jogo, quando, na verdade, é uma rede social complexa. Crespo nos lembra que “quando você gamifica a sociabilidade, você também gamifica o risco”. Ao transformar a interação humana em mecânica de jogo, cria-se um terreno fértil para manipulações emocionais que escapam aos filtros tradicionais de segurança.

Muitos pais e educadores veem o Roblox como um “Lego digital” inofensivo, mas essa leitura precisa mudar, dando lugar a controles parentais, acompanhamento ativo e diálogo constante. Ensinar crianças a reconhecer desconforto e mudanças sutis de comportamento é tão importante quanto qualquer ferramenta técnica.

A nova legislação australiana que bane redes sociais para menores de 16 anos não proíbe o Roblox diretamente, mas força a empresa a endurecer suas regras para evitar sanções no país e, por consequência, em outros mercados. Isso prova que uma pressão regulatória bem desenhada pode obrigar as gigantes da tecnologia a priorizarem a segurança em detrimento do engajamento irrestrito.

O Roblox evidencia que, quanto mais lúdico for um ambiente, maior a percepção de segurança e menor a vigilância. Mas a sociedade precisa entender que as plataformas digitais não são neutras. Todas são criadas para engajar, monetizar e reter usuários.

Este caso revela como tecnologia, mercado e infância podem se entrelaçar de forma perigosa. Precisamos discutir o dever de cuidado, limites da automação e o papel ativo de plataformas na construção de ambientes digitais mais saudáveis. Proteger crianças não é apenas bloquear chats ou treinar algoritmos. Temos que repensar os espaços digitais, para quem eles existem e quais valores estamos normalizando desde cedo.

 

Imagens reais (à esquerda) e gerada por IA (à direita) do ditador Nicolás Maduro chegando preso a Nova York – Fotos: reprodução

Em um mundo dominado por IA, redes sociais e escroques, o jornalismo se torna essencial

By | Jornalismo, Tecnologia | No Comments

Este ano eleitoral mal começou e alguns acontecimentos já deixaram claro que a combinação de inteligência artificial, redes sociais, oportunismo e mau-caratismo enterraram a verdade em um bloco de concreto que o cidadão comum não consegue romper. Nesse cenário, o jornalismo surge como o contraponto urgente, e, por isso mesmo, sofre ataques de quem se beneficia da enorme mentirada.

O primeiro caso veio com a prisão de Nicolás Maduro, que desembarcou em Nova York usando um agasalho de uma famosa marca americana, que inundou as redes sociais com a foto do ditador venezuelano usando o seu produto. Até aí, é o marketing sendo marketing. Mas não se pode ignorar como isso capturou o debate digital com uma mensagem do tipo “preferida até pelos criminosos”. E houve ainda as incontáveis imagens falsas dessa prisão geradas por IA, aumentando a desinformação.

Pior que isso foi o recente ataque orquestrado nas mesmas redes sociais contra o Banco Central e autoridades financeiras envolvidas com a liquidação do Banco Master. Até perfis de fofoca tentaram tirar a legitimidade de uma ação bem-feita.

Há ainda as agressões contra a jornalista Malu Gaspar, de “O Globo”, por realizar seu trabalho jornalístico, ao apresentar fatos suspeitos envolvendo um ministro do Supremo Tribunal Federal (STF) e sua esposa com o mesmo banco. Esses atentados se enquadram em três categorias ou na combinação livre entre elas: desconhecimento do trabalho jornalístico, manipulação das massas ou má-fé de interessados no caso.

Qualquer que seja o motivo e diante do enorme barulho que esses temas estão criando, é preciso esclarecer como funciona o jornalismo e por que ele se torna, cada vez mais, essencial para a sociedade, especialmente com a proximidade das eleições.


Veja esse artigo em vídeo:


Os detratores de Gaspar afirmam que ela atua com interesses políticos, visando desmoralizar ministros do STF, e que ela faz acusações sem provas. Cabe então explicar como a imprensa funciona e por que ela é tão fundamental, especialmente em sociedades como a nossa, que se tornam tão obtusas por ações nas redes sociais.

Um jornalista investiga os fatos e eventualmente coleta informações que podem servir como provas, mas esse não é o seu trabalho. Quem produz provas é a autoridade policial, que pode ser provocada a agir por informações da imprensa. Mas o jornalista não é policial. Sem tais informações, talvez nunca houvesse investigação e justiça em um dado caso.

Um dos recursos mais valiosos dessa investigação são as fontes, pessoas que têm informações privilegiadas sobre um assunto e interesse em divulgá-las. Elas usam o jornalista para que aquilo ganhe notoriedade, enquanto o jornalista usa a fonte para obter informações valiosas que, de outra forma, continuariam restritas.

Shakespeare escreveu que “há mais coisas entre o céu e a terra do que sonha a tua filosofia.” Se hoje a sociedade busca a verdade nesse angu de caroço do Banco Master, é porque algumas pessoas sempre souberam de tudo nesses bastidores, e contaram pelo menos parte dela à jornalista, que deu visibilidade a essas informações, ampliadas depois por outros veículos, como o Estadão e a Folha.

Os agressores de Gaspar exigem que ela divulgue quem são essas pessoas, mas esse pedido é descabido. A despeito do seu interesse em divulgar o que sabem, muitas não podem aparecer, e esse anonimato é garantido pelo artigo 5º, inciso XIV da Constituição, que estabelece que “é assegurado a todos o acesso à informação e resguardado o sigilo da fonte, quando necessário ao exercício da profissão”. Sem essa proteção, muita gente guardaria para si informações importantes.

O grande desafio do jornalista é não ser manipulado por uma fonte, interessada em propagar uma mentira. O profissional deve confirmar que a informação é verdadeira e de interesse público. Em caso afirmativo, tem a obrigação de publicá-la, para que, dessa forma, a sociedade corrija imperfeições e melhore. Foi o que Gaspar fez. E, depois dela, uma enxurrada de fatos suspeitos ou mal explicados corroborou tudo.

Vale dizer que os que a acusam de interesses políticos são os mesmos que aplaudem a imprensa quando ela usa os mesmos métodos para expor falcatruas “do outro lado”. E a boa imprensa fiscaliza qualquer tipo de poder, não importa quem estiver lá.

 

Jornalismo versus redes sociais

De 15 anos para cá, aqueles que se beneficiam de uma sociedade sem essa visão emplacaram a ideia de que, com as redes sociais, o cidadão não precisaria mais da imprensa, pois teria acesso direto à origem dos fatos. Infelizmente boa parte da população comprou essa lorota. E casos como os que analisamos aqui demonstram que, enquanto o jornalismo profissional insiste em desenterrar a verdade, as redes sociais massacram a sociedade com mentiras.

Foi o que aconteceu no dia 27, em um ataque coordenado de perfis com milhões de seguidores contra instituições e autoridades ligadas à liquidação do Banco Master. Limitado a 36 horas, ele foi identificado pela Febraban e divulgado pelo Estadão. Alguns influenciadores vieram a público para dizer que lhes foi oferecido muito dinheiro para participar do ataque à reputação dos envolvidos. Vale dizer que muitos dos perfis envolvidos não tratam de finanças: a maioria se dedica a fofocas.

Como de costume, a massa alheia às notícias e com seus interesses cuidadosamente inflamados pelos produtores de desinformação repercutiu as mentiras. De novo, enquanto os jornalistas sérios informam, as redes sociais deformam. Infelizmente a manipulação é tão grande, que a turba não vê que se tornou massa de manobra.

Agora, com as eleições chegando, tudo isso se tornará café pequeno e as imagens falsas de Maduro parecerão piadinhas. A inteligência artificial não para de dar mostras de que infelizmente também se presta a refinar a desinformação, para que se torne absolutamente crível, incluindo aí a produção de fotos, áudios e até vídeos que retiram de cada um de nós a capacidade de identificar uma verdade diante de nossos olhos.

Nesse mundo de cacofonia extrema, pulverizado com armadilhas da “hipersuasão” descrita pelo filósofo da informação Luciano Floridi, em que a IA capta nossos valores e desejos mais íntimos para nos enganar, a curadoria cuidadosa de profissionais da imprensa desponta como esperança de fugirmos da manipulação. E isso vale para todo o espectro político, e não apenas um “lado”.

Afinal, se as redes sociais construíram seu negócio sobre a desinformação ruidosa e visceral disseminada por criminosos, os jornalistas sérios continuam tentando encontrar os fatos muito além das obviedades do nosso cotidiano, seja digital ou não.

 

Em 2026, a IA continuará no trono da tecnologia, mas seu reinado será marcado pela automação de decisões – Imagem: Paulo Silvestre

Em 2026, a IA avançará sobre decisões empresariais e da sociedade

By | Tecnologia | No Comments

Neste ano que está começando, a inteligência artificial continuará no trono da tecnologia, mas seu reinado será muito diferente do que vimos até agora. Se nos últimos anos, ela impressionou por gerar textos, imagens e códigos, agora o debate se deslocará para a automação de decisões, a delegação de tarefas cognitivas e a reorganização do poder dentro das empresas e da sociedade, algo muito mais sensível.

Essa é a conclusão de conversas que tive com executivos de quatro das principais empresas de tecnologia que operam no Brasil. Essas lideranças apontam para um horizonte em que a “IA agêntica” não será mais uma novidade, mas um motor central de estratégias corporativas. A automação não mais se restringirá a tarefas repetitivas, passando a assumir processos cognitivos de julgamento e orquestração.

A pressão por produtividade não diminuiu, os custos de operação aumentaram e a paciência com experimentos sem retorno se esgotou. A evolução dos processadores especializados, a pressão por eficiência energética e a necessidade urgente de governança real sustentam essa visão. Por isso, as empresas buscam sistemas menores, mais inteligentes e capazes de operar dentro de casa, garantindo segurança e conformidade com leis cada vez mais rígidas.

Embora estejamos falando de tecnologia, o impacto na vida das pessoas e na rotina das empresas será profundo e, por vezes, invisível. Quando um sistema decide sozinho se concede um empréstimo, aprova um tratamento médico ou freia um carro autônomo, ele desloca o eixo da responsabilidade humana. Passamos a delegar à IA o julgamento moral e a capacidade de agir no mundo físico.

Isso nos coloca diante de um dilema que ultrapassa a engenharia e entra no campo da ética e da política. A pergunta que definirá 2026 não será, portanto, se esses sistemas serão eficientes, mas quem responderá quando eles inevitavelmente errarem.


Veja esse artigo em vídeo:


Nesse cenário, o próprio sucesso deve ser repensado. Sandra Vaz, presidente da Red Hat Brasil, afirma que “a eficiência operacional continua relevante, mas ela deixa de ser suficiente”. Para ela, em 2026, “as empresas terão de medir o impacto estratégico e ser muito criteriosas na escolha dos dados utilizados para criar novas experiências para o cliente”. Afinal, decisões ruins automatizadas em escala podem destruir o valor de uma companhia em pouco tempo.

Rui Botelho, presidente da SAP Brasil, toca exatamente nesse ponto ao projetar a consolidação de uma IA capaz de orquestrar tarefas “do fechamento financeiro à gestão de talentos, sempre com governança e rastreabilidade”. Ele destaca que o diferencial estará em “combinar essa automação com dados de negócio confiáveis”. A credibilidade torna-se, portanto, uma moeda valiosíssima nesse novo mercado.

Essa transformação é descrita por Fabricio Lira, diretor de IA e Dados da IBM Brasil, como a criação de “ecossistemas onde múltiplos agentes colaboram, compreendendo dinâmicas de contexto, intenção humana e cenários complexos”. Para ele, isso permitirá “oferecer decisões autônomas e seguras em tempo real”.

Perceba que a palavra-chave é “decisão”. Estamos saindo da era da venda de software (Software as a Service) para a venda de trabalho (Service as a Software), em que a máquina entrega o resultado final, e não apenas o meio para alcançá-lo. Isso exigirá novos processos para gerenciar conflitos entre agentes e garantir que a autonomia da IA não quebre a lógica de negócios ou a segurança institucional.

Marco Stefanini, CEO Global e fundador da Stefanini, reforça essa visão, citando que “a previsão da IDC é de que 65% das empresas adotarão esses agentes até o final de 2026, com foco em valor imediato e apoio à decisão”. No entanto, ele faz um alerta fundamental sobre a natureza dessa mudança, lembrando que “IA não é mágica, é método”. “Modelos genéricos, treinados apenas com conteúdo da Internet, não dão conta da complexidade das operações corporativas”, explica.

 

Decisão como produto

Essas visões convergem para um cenário em que sistemas multiagentes começam a decidir em cadeia, coordenando ações, priorizando caminhos e resolvendo conflitos em tempo real. O ganho de eficiência é evidente, mas cria-se um sério risco de naturalização da delegação moral.

Se um conjunto de algoritmos toma decisões, cria-se uma zona cinzenta em que “ninguém decidiu sozinho”. Para mitigar isso, a governança deixará de ser um discurso bonito de marketing para se tornar um requisito de engenharia. Sem isso, empresas enfrentarão não apenas crises de imagem, mas barreiras legais severas.

Por trás desse debate ético e regulatório, crescerá exponencialmente uma disputa material em torno de uma tecnologia vendida como “imaterial”. A IA consome quantidades absurdas de energia e depende de escassos processadores avançados. A infraestrutura definirá o poder, e a soberania digital dos países dependerá de quem controla esses recursos.

Além das máquinas, há o desafio humano. Botelho ressalta que “nada disso se sustenta sem investimento contínuo em mão de obra qualificada”. Enquanto os agentes assumem tarefas cognitivas, os humanos precisam ser requalificados para gerenciar, auditar e corrigir essas inteligências. Vaz complementa dizendo que a tecnologia ficará mais sofisticada, com ferramentas “orientadas para a escala dos negócios e a capacitação das equipes”.

Com tudo isso, em 2026 nos depararemos com escolhas que não poderemos postergar. Precisaremos decidir quanta autonomia estamos dispostos a delegar às máquinas, como garantir que a eficiência não atropele direitos fundamentais e quem terá poder para treinar modelos em escala. A IA continuará ficando mais poderosa, mas continua valendo a máxima de que tecnologia sozinha não resolve nada.

De agora em diante, essa história exigirá menos deslumbramento e mais responsabilidade coletiva. Empresas, governos e sociedade civil precisarão construir juntos os mecanismos de supervisão, auditoria e responsabilização que ainda não existem. Não há atalho para essa maturidade, e fingir que as empresas de tecnologia se autorregularão é uma fantasia inocente e perigosa.

Ainda bem que estamos a tempo de fazer as escolhas certas.