OpenAI cria sistema global para restringir conteúdo sensível a menores
A OpenAI começa em 21 de janeiro de 2026 a implantar no Brasil um sistema automático de detecção de idade no ChatGPT para limitar o acesso de menores a conteúdos sensíveis. A ferramenta, que será expandida gradualmente para outros países, mira usuários crianças e adolescentes em uma plataforma que soma 800 milhões de acessos semanais. A empresa promete filtros mais rígidos, verificação opcional por selfie e novos controles parentais conectados à conta dos filhos.
Algoritmo estima idade e ativa filtros para adolescentes
O novo sistema combina um algoritmo que estima a idade do usuário com recursos de confirmação de identidade. Assim que o ChatGPT classifica alguém como menor de idade, passa a aplicar filtros que bloqueiam ou reduzem o acesso a conteúdos considerados sensíveis ou potencialmente prejudiciais. A OpenAI cita violência gráfica, encenações sexuais ou violentas, representações de automutilação, desafios virais arriscados e conteúdos que promovem padrões extremos de beleza ou dietas pouco saudáveis entre os alvos diretos das restrições.
Quando o sistema erra para o lado mais protetivo e enquadra um adulto como adolescente, entra em cena uma etapa opcional de verificação. O usuário pode fazer uma selfie dentro do próprio aplicativo, que é analisada pela tecnologia Persona, adquirida pela OpenAI. A empresa afirma que esse processo serve para confirmar a maioridade e liberar o acesso pleno aos recursos da plataforma, sem detalhar quantos segundos a verificação leva ou por quanto tempo os dados biométricos ficam armazenados.
Pressão global por segurança digital acelera mudança
A decisão ocorre em um cenário de endurecimento no debate mundial sobre controle parental e exposição de jovens a riscos on-line. A Austrália já proíbe que adolescentes usem redes sociais de forma ampla, enquanto o game Roblox, popular entre crianças e adolescentes, passou a limitar funções de acordo com a idade, medida que gerou protestos e boicotes nas redes. No ano passado, pais de um adolescente nos Estados Unidos processam a OpenAI após relatos de que o ChatGPT teria orientado o jovem sobre métodos de autoagressão, episódio que acendeu o alerta sobre a atuação de chatbots junto a públicos vulneráveis.
O ChatGPT é hoje o chatbot mais usado do mundo, com 800 milhões de usuários ativos por semana, segundo a própria companhia. A mesma plataforma que amplia a produtividade de estudantes e profissionais também concentra riscos quando responde sem filtros a buscas sobre violência, sexo ou autolesão feitas por adolescentes. Ao anunciar o sistema de detecção de idade, a empresa tenta mostrar que leva essa ambiguidade a sério e procura se alinhar a legislações como as que vigoram na União Europeia e em partes dos Estados Unidos para proteção de menores no ambiente digital.
Controles parentais e debate sobre privacidade
Além da classificação automática, a OpenAI lança um pacote de controles parentais integrado às contas familiares. Em Configurações, pais e responsáveis podem acessar o menu de Controles Parentais, adicionar o perfil dos filhos e definir um “horário de silêncio” para o uso do ChatGPT. Também é possível receber alertas de segurança em situações específicas, como buscas relacionadas a autolesão ou participação em desafios virais perigosos, segundo a descrição da empresa. A ideia é que adultos consigam acompanhar o uso da ferramenta por crianças e adolescentes sem precisar monitorar cada conversa em tempo real.
As novas funções chegam em um momento em que a OpenAI passa a exibir anúncios no ChatGPT como forma de ampliar a receita, o que reforça o contraste entre expansão comercial e aumento da responsabilidade com menores de idade. Especialistas em segurança digital veem a adoção de sistemas de verificação de idade como um passo quase inevitável para plataformas com essa escala, mas alertam para o risco de normalização do uso de dados biométricos, como selfies, para acesso a serviços on-line. A empresa não detalha, no anúncio, se será possível contornar o sistema ao usar dados falsos ou contas de terceiros, o que tende a alimentar novas discussões regulatórias.
Impacto sobre outras plataformas e próximos passos
O movimento da OpenAI tende a pressionar outras big techs a revisarem suas próprias políticas de idade e de conteúdo sensível. Redes sociais, serviços de vídeo curto e plataformas de games já adotam algum tipo de classificação etária, mas ainda esbarram em sistemas de verificação frágeis, muitas vezes baseados apenas em declarações do usuário. Ao levar a discussão para o campo de algoritmos preditivos e verificação biométrica opcional, o ChatGPT abre espaço para um novo padrão de referência em segurança para menores, que pode ser copiado ou contestado nos próximos anos.
O início da implantação no Brasil em 21 de janeiro de 2026 marca uma fase de teste em um dos mercados mais ativos de redes sociais e aplicativos de mensagens do mundo. A expansão global será progressiva, em um cronograma que a OpenAI ainda não detalha. A longo prazo, o sucesso do sistema será medido não apenas pela redução da exposição de menores a conteúdos nocivos, mas também pela forma como equilibra proteção, privacidade e liberdade de informação. A empresa aposta que esse equilíbrio é possível, mas a resposta definitiva virá do comportamento dos usuários, da reação de pais e reguladores e das próximas medidas que governos adotarem para proteger crianças e adolescentes no ambiente digital.
