Monthly Archives: fevereiro 2026

Sam Altman (OpenAI) e Dario Amodei (Anthropic) não deram as mãos para foto na Cúpula de Impacto da IA em Nova Délhi – Foto: reprodução

Busca pela superinteligência artificial esconde interesses, brigas, riscos e muita cortina de fumaça

By | Tecnologia | No Comments

Na quinta passada, durante a Cúpula de Impacto da IA em Nova Délhi, Sam Altman, CEO da OpenAI, e Dario Amodei, CEO da Anthropic, se recusaram a dar as mãos para uma foto em grupo, ao lado do primeiro-ministro indiano, Narendra Modi. Seria uma bobagem, se eles não liderassem as empresas criadoras do ChatGPT e do Claude, duas das principais plataformas de IA do mundo.

O gesto explicita a corrida insana pela superinteligência artificial, um cenário hipotético em que as máquinas teriam ampla autonomia operacional e seriam melhores que os seres humanos em quase todas as tarefas cognitivas. Quem chegar lá primeiro assumirá uma inigualável liderança econômica e política. Mas há sérios riscos que não podem ser ignorados nesse desenvolvimento.

De certa forma, essa concorrência desmedida contraria o que diz o documento final da cúpula indiana, que prega que “a promessa da IA só se realiza plenamente quando seus benefícios são compartilhados por toda a humanidade”. Mas vozes dissonantes nas próprias organizações afirmam que, para vencer essa disputa, empresas e governos estão perigosamente abandonando a ética e a segurança.

Isso vem provocando reações. Mustafa Suleyman, CEO da unidade de IA da Microsoft, fala de uma “superinteligência humanista”. Enquanto isso, mais de 135 mil pessoas, incluindo alguns dos principais pesquisadores da IA do mundo, como Geoffrey Hinton e Yoshua Bengio, já assinaram uma declaração que propõe o fim dessa corrida. No Brasil, o manifesto ContAIn Now sugere financiar uma infraestrutura de governança que torne a contenção da IA mais rentável do que a imprudência.

Como diz o ditado, “onde há fumaça, há fogo”. O encontro na Índia deixou claro os descomunais interesses econômicos e políticos, os conflitos, as possibilidades e os riscos em torno da IA. Diante de tudo isso, não podemos ser ingênuos ou catastrofistas se quisermos buscar soluções verdadeiramente sustentáveis.


Veja esse artigo em vídeo:


A existência da Anthropic é fruto desse desconforto. Ela nasceu de uma dissidência da OpenAI, quando Amodei e outros pesquisadores deixaram a empresa por discordarem do ritmo acelerado de comercialização e da suposta redução de foco na segurança. Foi um “racha” que marcou o início de uma divisão profunda na indústria entre quem quer avançar a qualquer custo e quem se preocupa com as consequências.

A Cúpula na Índia tentou vender a agenda de “Pessoas, Planeta, Progresso”. Mas, nos corredores, um intenso debate opunha as intenções de acelerar ou conter o desenvolvimento da IA, expandir sua capacidade ou estruturar limites. A promessa de democratização da tecnologia muitas vezes serviu apenas como “verniz diplomático” para esconder a tensão sobre quem deve, de fato, ditar as regras e conter os riscos.

A geopolítica permeou cada painel. A Índia buscou assumir a liderança do Sul Global na tecnologia, enquanto os EUA tratam a IA como uma corrida decisiva contra a China, afrouxando regras e ameaçando retaliar países que a regulem demais. A Europa, por sua vez, continua insistindo em marcos rígidos e o Brasil defendeu o multilateralismo e o desenvolvimento inclusivo.

Esses projetos colidem na prática. É inevitável questionar, portanto, se existe um ponto de convergência real ou se estamos apenas empilhando discursos bonitos sobre estruturas de poder que continuam profundamente autocentradas.

A corrida pela superinteligência é a versão atual da “tragédia dos comuns”. Ninguém tem incentivo para desacelerar sozinho. Mesmo quando as big techs admitem publicamente os perigos, elas continuam investindo bilhões para não perderem mercado, temendo que cautela se torne oportunidade de domínio do concorrente.

 

Marketing ou tecnologia humanista?

Suleyman propõe abrir mão de parte da capacidade para garantir o controle humano da IA. A ideia tem mérito ao reconhecer limites, mas também cumpre uma função estratégica, legitimando a Microsoft na corrida, ao afirmar que é possível ser rápido e também prudente, ainda que essa equação nunca tenha sido simples na tecnologia.

Pyr Marcondes, autor do ContAIn Now, reconhece que Suleyman é um dos pensadores mais sérios do setor, mas não poupa críticas a essa ideia. “Só o capital pode deter o capital e só a IA pode deter a IA”, afirma.

O movimento propõe uma via pragmática em que a governança seja estrutural e financeira. A ideia é construir um ecossistema que transforme o cumprimento de normas de segurança e auditoria em um mercado rentável, semelhante ao que ocorreu com a conformidade ambiental. “A solução não é convencer pessoas a serem mais responsáveis, e sim construir sistemas em que a responsabilidade seja economicamente recompensada e a irresponsabilidade seja penalizada”, acrescenta.

Não seria a primeira vez que veríamos conceitos éticos serem reduzidos a slogans. “IA ética” tornou-se peça de marketing e “IA responsável” criou departamentos de conformidade com pouco poder. Agora, “humanista” corre o risco de ser a nova camada retórica aplicada à superinteligência artificial.

Quando um executivo fala em “humanismo” sem definir como será feita a auditoria ou quem será responsabilizado por falhas, pode estar simplesmente “comprando tempo” para consolidar sua posição. Sem critérios técnicos que permitam aos humanos entender a lógica interna dos algoritmos (a chamada interpretabilidade), a promessa de controle continua sendo uma fronteira nebulosa e perigosa.

Dizer que “estamos à beira da extinção” simplifica demais um problema complexo, assim como acreditar que “o mercado resolverá tudo de forma espontânea” é uma ingenuidade grotesca. Talvez o ponto mais honesto dessa discussão seja assumir que os próprios desenvolvedores admitem que não possuem garantias totais de controle sobre o que estão criando, mas a inércia competitiva os impede de pisar no freio.

A questão central para o nosso futuro não é se a inteligência artificial será transformadora, pois essa transição já ocorreu e molda o nosso presente. O verdadeiro desafio civilizacional é se conseguiremos construir, com a mesma agilidade com que expandimos a capacidade das máquinas, uma arquitetura política e econômica capaz de sustentá-la com ética e dignidade humana.

Esse desafio só poderá ser superado nos parlamentos, nas empresas, nas universidades e nas ruas, pelos mesmos humanos que a superinteligência artificial promete superar.

 

Jared Horvath no Senado americano: “nossos filhos são cognitivamente menos capazes do que nós éramos na idade deles” – Foto: reprodução

Afirmar que a Geração Z é menos inteligente que as anteriores embute uma perigosa generalização

By | Educação, Tecnologia | No Comments

No dia 15 de janeiro, o neurocientista Jared Horvath declarou no Senado americano que “nossos filhos são cognitivamente menos capazes do que nós éramos na idade deles”. Talvez pela sua contundência e por um estilo um tanto performático, a frase inundou as redes sociais, atropelando o debate acadêmico e sendo ampliada para afirmações mais alarmistas, como a de que “a Geração Z seria a primeira geração menos inteligente do que a anterior”.

Os senadores americanos investigam o impacto da tecnologia no desenvolvimento cognitivo e bem-estar de crianças e adolescentes. Horvath defende firmemente que a tecnologia digital prejudica o aprendizado nas escolas. Mas ele mesmo explica que isso não pode ser confundido com menos inteligência.

Como pesquisador, defendo a tecnologia como uma ferramenta capaz de ampliar nossa capacidade de pensar, mas isso só acontece se for conscientemente usada com esse propósito, o que acontece pouco. Ao mesmo tempo, apoio a restrição de telas na escola a atividades estritamente acadêmicas e sob orientação de professores.

O problema se agrava quando os jovens usam esses recursos fora da escola, pois normalmente fazem isso sem orientação e até supervisão de um adulto capacitado. Isso conversa com as recentes proibições de redes sociais a crianças e adolescentes na Austrália e na França, movimento que pode ser replicado na Espanha, Dinamarca, Alemanha e Reino Unido. No Brasil, o ECA Digital começa a valer no dia 18 de março, restringindo o uso de redes sociais por menores, mas sem barrar as plataformas.

Dizer simplesmente que os jovens são menos inteligentes que seus pais é como fogo em mato seco nas redes sociais. Mas essa informação, além de imprecisa, contamina um debate já muito polarizado entre pais, educadores e as big techs. Não se podem negar os gravíssimos impactos do meio digital em crianças e adolescentes, que vão muito além da educação, mas soluções eficientes exigem equilíbrio e racionalidade.


Veja esse artigo em vídeo:


Há sinais de transformação nas capacidades cognitivas por mudanças educacionais, culturais e tecnológicas. Mas transformar esse fenômeno complexo em um diagnóstico simplista empobrece o debate e obscurece a questão central de como lidar com uma geração que pensa de forma diferente, sem confundir mudança com decadência.

O ponto de partida é o chamado “Efeito Flynn”. O pesquisador americano James Flynn identificou, ao longo do século XX, um aumento consistente de três pontos por década nos resultados de testes de QI em diversos países. Isso foi associado a melhorias em nutrição, escolarização, saúde e ambiente cognitivo, e não a uma evolução biológica. Essas mudanças favoreceram, portanto, certas habilidades medidas pelos testes.

Porém, a partir da década de 1990, pesquisadores começaram a observar uma estagnação nesse crescimento e, em alguns aspectos, uma queda, o que foi chamado de “Efeito Flynn Reverso”. Novamente, a causa não seria biológica, e sim transformações educacionais, hábitos culturais e padrões de leitura.

É preciso entender que testes de QI não medem inteligência. Se medissem e se esses índices cresceram três pontos por década, isso indicaria que a população dos anos 1900 seria composta majoritariamente por indivíduos com deficiência intelectual, enquanto hoje seríamos todos gênios, o que não é verdade em nenhum dos dois casos.

Vale notar também que pesquisas indicam que o desempenho dos adolescentes atuais em testes altamente visuais e externamente guiados continua crescendo, mas diminui nos que dependem de linguagem, memória e manipulação mental sem apoio visual. Isso sugere uma dependência crescente desses estímulos.

O próprio Flynn defendia que eventuais altas e quedas seriam explicadas por fatores ambientais complexos, e não por um único elemento. Para ele, as pessoas melhoravam nos testes porque estavam sujeitas a mais escolarização, pensamento abstrato e tecnologias simbólicas, que “treinam” o que os testes cobram. Por isso, afirmava que diferentes épocas produzem diferentes perfis cognitivos, adaptados às ferramentas e problemas predominantes no momento.

Há evidências crescentes de que os mais jovens apresentam dificuldade em leitura profunda e compreensão, fluência verbal, atenção sustentada, resiliência e raciocínio numérico e verbal. Por outro lado, destacam-se em proficiência tecnológica, multitarefa, criatividade, empreendedorismo, aprendizado contínuo e raciocínio espacial.

 

Como e o que aprendemos

Há uma forte correlação entre esses ganhos e essas perdas e o uso de recursos digitais pelos mais jovens. Isso sugere que a tecnologia impacta não a nossa inteligência, mas como e o que aprendemos.

Redes sociais não são criadas para informar ou educar. O objetivo das big techs é manter o público engajado, aumentando seus lucros. Isso normalmente é feito com estímulos que privilegiam a superficialidade e o imediatismo, com microdoses contínuas de dopamina. Os smartphones surgem como aliados perfeitos, pois entregam esses estímulos a qualquer hora e em qualquer lugar, de uma maneira muito mais sedutora que a escola.

Agora, o uso inadequado da inteligência artificial pode empobrecer processos mentais, quando ela substitui etapas de reflexão, investigação e verificação, por não apenas fornecer dados, mas organizar argumentos, produzir sínteses e concluir. Novamente, o risco não é “ficar menos inteligente”, mas deixar de exercitar competências essenciais, como formulação de hipóteses e pensamento crítico.

“Em vez de determinarmos o que queremos que nossos filhos façam e direcionarmos a educação para isso, estamos redefinindo a educação para que ela se adapte melhor à ferramenta”, disse Horvath aos senadores. “Isso não é progresso, é rendição”, decretou.

Apesar do debate em torno dos mais jovens, tudo isso se aplica a pessoas de qualquer idade. A imersão digital é inevitável, e talvez aí resida o grande desafio. Os adultos não conseguem resistir à sua sedução, mesmo quando é nociva. Assim, fracassam em orientar os mais jovens para que usem a tecnologia para que aprendam mais e pensem melhor.

Nossa inteligência sempre evoluiu com ferramentas. Temos que garantir que as tecnologias digitais não nos escravizem pelos interesses de magnatas do Vale do Silício. Pelo contrário, devem ampliar nossas capacidades cognitivas. Mas só teremos sucesso com seriedade no debate, ações construtivas e responsabilização de todos.

 

Matt Schlicht, CEO da startup Octane AI e criador do Moltbook - Foto: reprodução

Rede social sem humanos expõe medos e desconhecimento sobre a IA

By | Tecnologia | No Comments

Nos últimos dias, grandes veículos de comunicação e a Internet foram tomados pelo frenesi em torno do Moltbook, uma rede social com a inusitada característica de que apenas agentes de inteligência artificial participam, enquanto os humanos podem, no máximo, se tornar voyeurs do que os robôs lá publicam. Porém, a maioria do que as pessoas estão dizendo sobre esse caso demonstra o quanto ainda entendemos pouco da IA e como nossos medos desse desconhecimento podem capturar nossa atenção.

Os mais apocalípticos veem nessa improvável plataforma o “despertar das máquinas” que em breve nos exterminarão, enquanto outras pessoas a desdenham como um modismo desimportante. Há ainda aqueles que acham genial essa invenção de Matt Schlicht, CEO da startup Octane AI. O fato é que cada um vê nela aquilo que deseja. Mas essa pode ser uma interessante oportunidade de aprendizagem para nós.

Se você ainda não sabe do que se trata, o Moltbook é uma rede social lançada em 28 de janeiro em que apenas agentes de IA podem publicar e interagir. Pessoas limitam-se a ler o que as máquinas fizerem. Neste momento, há 1,8 milhão desses sistemas cadastrados nela, que já criaram mais de 300 mil posts e 12 milhões de comentários.

Independentemente do que seja palpável ou apenas fumaça, o fenômeno do Moltbook deveria servir para que aprendamos mais sobre o funcionamento, limites e possibilidades da inteligência artificial. Não para nos protegermos de uma improvável “revolta dos robôs”, mas para entendermos que, ao entregarmos crescentemente informações a sistemas que não compreendemos e ao delegarmos a eles decisões sofisticadas e prosaicas, abrimos mão do mais nobre de nossa humanidade.

Isso pode nos causar um prejuízo irreparável, não porque as máquinas sejam maquiavélicas, mas porque estamos nos tornando displicentes. Ao longo de milhões de anos, assumimos o controle do planeta ao raciocinarmos e decidirmos. Agora, a despeito de sua inegável capacidade, entregamos, por preguiça, insegurança ou ganância, esse nosso diferencial a máquinas estatísticas que apenas parecem inteligentes.


Veja esse artigo em vídeo:


O Moltbook foi concebido, em tese, como um ambiente experimental para observar como sistemas de IA se comportam e aprendem quando passam a conversar diretamente uns com os outros, sem participação de humanos. Essa é uma ideia atraente, porém largamente falha e até perigosa.

Qualquer pessoa que domine a tecnologia consegue burlar sua premissa básica e criar um agente de IA para atuar como um boneco de ventríloquo travestido de robô. Dessa forma, pode “contaminar” as discussões na plataforma com sua humanidade, por pura diversão ou para satisfazer alguma agenda. Segundo um levantamento da empresa de cibersegurança Wiz, cerca de 17 mil pessoas já se “infiltraram” no Moltbook.

A mesma empresa descobriu que o banco de dados da plataforma possuía falhas de segurança, permitindo que qualquer um pudesse ler e gravar nele. Era possível ainda acessar dados confidenciais, incluindo chaves de agentes, mensagens privadas e até credenciais completas para outros serviços, como os da OpenAI.

Além disso, dependendo de como foram criados, agentes de IA podem acessar arquivos, senhas e serviços online de pessoas e empresas. Se um deles maliciosamente introduzir instruções em uma postagem, elas podem ser executadas automaticamente por potencialmente milhões de agentes com acessos privilegiados.

O grande risco é que criamos agentes de IA que pensam, decidem e agem como nós e em nosso nome, inclusive com acesso a recursos sensíveis e poderosos. Se não cuidarmos bem desses valorosos assistentes, eles podem ser manipulados para ações muito destrutivas. E não estamos fazendo isso direito.

É como mandar uma criança com a chave do cofre a um covil de ladrões.

 

“Mas isto fala!”

Ao testar o telefone de Graham Bell na Exposição da Filadélfia em 1876, D. Pedro II teria exclamado “mas isto fala!” Diante do seu espanto, o imperador brasileiro determinou que a invenção chegasse por aqui no ano seguinte, fazendo do Brasil o segundo país do mundo a ter telefones, depois dos EUA.

Hoje todos sabem que quem “fala” não é o telefone, e sim o interlocutor do outro lado da linha. Mas ainda fantasiamos sobre o funcionamento da IA. E isso acontece porque ela “fala”, parece saber tudo e até simula sentimentos convincentemente.

Ainda em fevereiro de 2024, escrevi um artigo em que sugeri que “o mais espantoso na IA não é o que ela nos diz, mas ela conseguir falar”. De fato, a boa comunicação oferece um poder imenso a qualquer um (ou qualquer coisa). A civilização foi criada sobre a linguagem e depende dela para tudo. Assim, como os gatos domésticos não a dominam, eles dependem de nós para carinho, comida e uma caixa de areia limpa.

O ChatGPT mostrou ao mundo que a IA pode se comunicar tão bem e até melhor que nós. Se delegamos cada vez mais decisões, até as simplórias, a essas plataformas, elas passarão a interpretar o mundo em nosso lugar, e poderemos acreditar nelas, por mais erradas que estejam. É por isso que obviamente devemos usar o incrível poder dessa tecnologia em nosso favor, mas a decisão final sempre deve ser nossa.

Sistemas que aprendem com sistemas aceleram padrões, bons e ruins. Isso levanta questões sobre alinhamento, opacidade e auditabilidade. Quando agentes de IA passam a “conversar” em escala e sem controle, o risco é que passem a operar segundo lógicas que nós já não conseguimos acompanhar ou explicar.

A corrida das big techs pela “IA geral”, quando robôs agirão sem depender de nós e com uma capacidade muito superior à nossa, funciona como uma cortina de fumaça para problemas mais urgentes, como governança, transparência e responsabilização. O mérito do Moltbook é nos fazer pensar que o verdadeiro risco não é uma “revolução das máquinas”, mas a automação opaca a que essas empresas nos submetem.

Assim, ele é menos revolucionário tecnicamente e mais significativo culturalmente. O que devemos questionar não é se as máquinas vão nos substituir, e sim que versão de nós mesmos estamos construindo ao delegar cada vez mais nossas vidas a elas.

 

Governos de vários países tentam restringir celulares e redes sociais a crianças e adolescentes – Foto: Pixabay/Creative Commons

Após proibição dos celulares nas escolas, uso de redes sociais e da IA por jovens exige atenção

By | Educação, Tecnologia | No Comments

No início do ano letivo de 2025, a grande novidade foi a proibição de celulares nas escolas mesmo em intervalos. Agora, com as aulas deste ano prestes a começar, cresce a preocupação sobre a influência das redes sociais e até da inteligência artificial na formação dos mais jovens.

A discussão floresce em vários países. A Austrália baniu, em dezembro, as redes sociais para menores de 16 anos em qualquer ambiente, depois de um longo debate. Leis semelhantes estão sendo discutidas na França, Dinamarca, Reino Unido e Nova Zelândia.

No caso da IA, o think tank americano Centro para Educação Universal da Brookings Institution acaba de divulgar um estudo que indica que os riscos do uso da IA na educação de crianças e jovens superam seus benefícios. Segundo ele, a dependência excessiva dessa tecnologia pode afetar a capacidade dos estudantes de aprender, seu bem-estar social e emocional, suas relações de confiança com professores e colegas, bem como sua segurança e privacidade.

No Brasil, o Insper e a Escola Superior de Propaganda e Marketing (ESPM), duas das principais faculdades particulares do país, começaram 2026 proibindo dispositivos eletrônicos nas aulas de graduação, exceto em atividades acadêmicas. Na primeira, notebooks e tablets ainda são tolerados; na ESPM, nem isso. A justificativa é a grande queda no aprendizado devido à distração causada por esses aparelhos.

Essas iniciativas indicam sociedades incapazes de enfrentar os evidentes problemas que as tecnologias digitais criam na formação dos mais jovens. Mas esses recursos digitais continuam vitimando crianças e adolescentes fora da escola. Diante de uma cínica falta de colaboração das empresas que criam essas plataformas, as restrições acabam sendo necessárias, pois o problema continua existindo em qualquer tela.


Veja esse artigo em vídeo:


Na França, a Assembleia Nacional aprovou, no dia 26, a proibição das redes sociais para menores de 15 anos. O projeto está agora no Senado e, se aprovado, deve entrar em vigor até 1º de setembro, início do ano letivo no país.

“O cérebro de nossas crianças e de nossos adolescentes não está à venda”, disse o presidente francês, Emmanuel Macron. “As suas emoções não devem ser manipuladas, nem por plataformas americanas, nem por algoritmos chineses”, concluiu.

O estudo da Brookings Institution reconhece que a IA pode ser uma poderosa ferramenta de apoio pedagógico, auxiliando na alfabetização, na aquisição de novos idiomas e no desenvolvimento da escrita. Pode ainda promover a inclusão de alunos com dificuldades e de populações excluídas do ensino formal, enquanto otimiza a rotina docente. Ao automatizar tarefas burocráticas e a criação de materiais, a IA permite que os professores se concentrem na interação direta com os estudantes.

Em contrapartida, o uso excessivo da IA ameaça o desenvolvimento cognitivo, causando uma “atrofia mental”, caso os alunos terceirizem o pensamento crítico e a resolução de problemas para a máquina. A natureza bajuladora dos chatbots prejudica a capacidade de lidar com divergências e reduz a empatia, essencial nas relações humanas. Além disso, o estudo alerta para o risco de ampliação das desigualdades, pois modelos gratuitos são menos precisos, o que levanta preocupações graves sobre a saúde mental e o isolamento social de jovens que buscam companhia em algoritmos.

Segundo o levantamento TIC Educação 2024, divulgado em outubro pelo Cetic.br, ligado ao Comitê Gestor da Internet no Brasil, 70% dos estudantes do Ensino Médio usam a IA generativa no país, 37% se incluirmos os do Ensino Fundamental. Mas apenas 32% dos alunos do Ensino Médio receberam orientação dos professores sobre como usá-la em atividades escolares, com o índice desabando para 19% se considerarmos também o Ensino Fundamental.

 

O avanço das big techs

As empresas de tecnologia estão de olho na educação. A edição 2025 do estudo “Nossa vida com IA”, divulgado no dia 14 pelo Google e pela consultoria Ipsos, indicou que 72% dos brasileiros (de todas as idades) usam a IA para aprender, com 75% vendo impacto positivo na educação e 73% afirmando que ela melhora o aprendizado.

Em julho, a OpenAI, a Microsoft e a Anthropic anunciaram um investimento de US$ 23 milhões para levar mais IA ao Ensino Básico nos EUA. Obviamente isso não foi movido só por boas intenções. Elas são donas de algumas das maiores plataformas de IA, e querem que sejam muito usadas desde os primeiros anos escolares, o que potencializa os benefícios e os riscos já citados. Por isso, muitos professores americanos resistem a uma adoção massificada.

No fim do ano passado, a OpenAI lançou o “Modo de Estudo” do ChatGPT, com o objetivo de criar um ambiente em que a IA atua como um tutor, incentivando a reflexão em vez de fornecer respostas prontas. Mas, apesar de interessante, especialistas criticam o recurso por não distinguir informações corretas de erradas.

A sociedade precisa se organizar para melhorar o uso não só da IA, mas das diferentes tecnologias digitais na sala de aula. Essa integração deve ter regras claras e foco no desenvolvimento humano, não apenas na execução de tarefas. As práticas escolares devem ser repensadas para valorizar curiosidade e engajamento, e é preciso treinar professores e alunos em alfabetização digital. No caso de IA, as ferramentas devem ser menos “bajuladoras”, desafiando os estudantes a pensar criticamente.

Precisamos de políticas públicas e regulamentações que protejam a saúde cognitiva, emocional e a privacidade das crianças e dos adolescentes. Governos, educadores e pais devem assegurar que essas tecnologias digitais não amplifiquem desigualdades.

A digitalização da sociedade é irreversível, mas isso não quer dizer que ela deva acontecer de maneira descuidada, especialmente com crianças e adolescentes. Dentro da sala de aula, ela jamais pode substituir os professores, devendo estar subordinada aos educadores, que precisam ser envolvidos na busca por soluções.

Fora da escola, os pais têm um papel decisivo para apoiar um uso seguro e construtivo dos serviços digitais por seus filhos. É uma tarefa ingrata, pois eles mesmos são vítimas dos abusos nessas plataformas. Infelizmente, as big techs dão repetidas mostras de não estar interessadas em fazer movimentos necessários para soluções sustentáveis e eficientes se isso ameaçar seus ganhos bilionários.