Revolta no Roblox mostra que a proteção digital infantil exige mais do que barreiras virtuais

By 19 de janeiro de 2026 Tecnologia No Comments
Avatares da plataforma digital Roblox, que implantou novas medidas de segurança - Foto: reprodução

O Roblox é uma das plataformas de jogos mais populares entre crianças no mundo, com 151 milhões de usuários, a maioria abaixo dos 13 anos. Nas últimas semanas, implantou restrições em seu chat e exigiu verificação facial para tentar proteger seus usuários contra predadores digitais. Mas ironicamente essas medidas de segurança despertaram uma revolta visceral nas crianças, como se a proteção fosse uma afronta à sua liberdade de brincar, com protestos no próprio ambiente.

Longe de se limitar a um problema em um jogo, isso reflete dilemas de uma sociedade conectada. Casos trágicos, como o suicídio do jovem americano Ethan Dallas após sofrer extorsão iniciada no Roblox, mostram que as consequências do que ocorre nesses ambientes virtuais transbordam, muitas vezes de forma irreversível, para o mundo físico e para a estrutura familiar.

Os protestos parecem espontâneos, mas a forma coordenada como surgiram, com cartazes cheios de erros exagerados de grafia e linguagem infantil, levanta dúvidas. Não se pode descartar a hipótese de que adultos mal-intencionados, que se beneficiam da falta de regulação, estejam manipulando os menores para manter o acesso facilitado.

Embora as mudanças pareçam robustas na teoria, a eficácia dessas barreiras é questionável diante da criatividade humana para burlar regras. A tecnologia, por mais avançada que seja, frequentemente corre atrás do prejuízo, tentando remediar problemas que o próprio design da plataforma permitiu.

Resta a dúvida se tais ações vieram para resolver um problema estrutural ou apenas como uma resposta paliativa para conter uma crise de reputação. O fenômeno observado no Roblox é um microcosmo do que acontece em diversas redes sociais, no qual empresas aplicam correções superficiais para aplacar a opinião pública, enquanto a arquitetura que permite o risco permanece intacta e lucrativa.


Veja esse artigo em vídeo:


Nesse universo, crianças são expostas a riscos graves, como o aliciamento sexual disfarçado de brincadeira e a troca de favores virtuais, conhecidos como “jobs”. Eles começam como uma interação inocente em busca de moedas para comprar itens para um avatar, mas podem degenerar rapidamente para situações de abuso e exploração, em que a fronteira entre o lúdico e o criminoso se dissolve pelo aproveitamento de fragilidades, carências e imaturidade emocional típicas da infância.

Essa dinâmica não é exclusiva do Roblox, mas fica dramática ali pela natureza imersiva da plataforma. Diferentemente de um feed de uma rede social, a interação simula presença física e contato direto, o que potencializa a vulnerabilidade. A sensação de intimidade criada pelo avatar pode baixar as defesas da criança de uma maneira que um texto ou uma foto em outras redes talvez não conseguisse.

O coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM), Marcelo Crespo, explica que o Marco Civil da Internet acaba protegendo as plataformas contra a responsabilização automática pelo conteúdo de terceiros. “Mas ele não as blinda contra falhas de segurança, governança e desenho do serviço”, afirma, pois descuidos nessa arquitetura podem gerar consequências jurídicas.

A empresa argumenta que a captura de criminosos é dever do Estado, uma defesa comum entre big techs. No entanto, Pedro Teberga, professor da Faculdade Einstein e especialista em negócios digitais, contesta essa visão de neutralidade. “Ao gamificar a socialização, reduzir fricções de contato e permitir mundos criados por usuários com moderação descentralizada, a plataforma facilita estratégias de aproximação gradual típicas do aliciamento”, explica. Nesse sentido, ela atua como arquiteta do espaço e não pode transferir integralmente a responsabilidade ao Estado.

Outro ponto crítico é a coleta massiva de dados biométricos de menores para a verificação de idade. Dados biométricos não podem ser alterados como uma senha. Isso gera um passivo de segurança gigantesco e normaliza, desde cedo, a vigilância constante como pedágio para a vida digital. O risco de vazamento ou uso indevido dessas informações no futuro é uma ameaça que não pode ser ignorada.

A empresa informa que a inteligência artificial está no centro dessas medidas. Mas há questionamentos se ela realmente pode sanear esse ambiente.

 

O limite da tecnologia e o papel humano

A IA tem vantagens claras, identificando padrões, mapeando comportamentos suspeitos e agindo em escala, mas suas limitações são evidentes. “A IA atual é eficiente para identificar padrões comportamentais repetitivos, mas ainda é limitada para compreender nuances culturais, gírias locais e ambiguidades de linguagem antes que o dano ocorra”, alerta Teberga. O risco é agir sempre depois do estrago feito.

Talvez um erro fundamental seja classificar a plataforma apenas como um jogo, quando, na verdade, é uma rede social complexa. Crespo nos lembra que “quando você gamifica a sociabilidade, você também gamifica o risco”. Ao transformar a interação humana em mecânica de jogo, cria-se um terreno fértil para manipulações emocionais que escapam aos filtros tradicionais de segurança.

Muitos pais e educadores veem o Roblox como um “Lego digital” inofensivo, mas essa leitura precisa mudar, dando lugar a controles parentais, acompanhamento ativo e diálogo constante. Ensinar crianças a reconhecer desconforto e mudanças sutis de comportamento é tão importante quanto qualquer ferramenta técnica.

A nova legislação australiana que bane redes sociais para menores de 16 anos não proíbe o Roblox diretamente, mas força a empresa a endurecer suas regras para evitar sanções no país e, por consequência, em outros mercados. Isso prova que uma pressão regulatória bem desenhada pode obrigar as gigantes da tecnologia a priorizarem a segurança em detrimento do engajamento irrestrito.

O Roblox evidencia que, quanto mais lúdico for um ambiente, maior a percepção de segurança e menor a vigilância. Mas a sociedade precisa entender que as plataformas digitais não são neutras. Todas são criadas para engajar, monetizar e reter usuários.

Este caso revela como tecnologia, mercado e infância podem se entrelaçar de forma perigosa. Precisamos discutir o dever de cuidado, limites da automação e o papel ativo de plataformas na construção de ambientes digitais mais saudáveis. Proteger crianças não é apenas bloquear chats ou treinar algoritmos. Temos que repensar os espaços digitais, para quem eles existem e quais valores estamos normalizando desde cedo.