Ciencia e Tecnologia

OpenAI cria sistema para barrar conteúdo sensível a menores no ChatGPT

A OpenAI começa a implementar em 21 de janeiro de 2026 um sistema automatizado para detectar menores de idade no ChatGPT e restringir acesso a conteúdos sensíveis. A mudança vale globalmente, inclusive no Brasil, e mira crianças e adolescentes em um ambiente digital cada vez mais pressionado por regras de proteção.

Algoritmo, selfie e filtros em tempo real

O novo sistema passa a estimar a idade de quem usa o ChatGPT a partir de sinais de uso e dados de cadastro, segundo a empresa. A partir dessa classificação, o robô de conversa mais popular do mundo passa a aplicar filtros específicos para usuários identificados como menores, reduzindo a exposição a temas considerados delicados.

Quando o algoritmo classifica alguém como adolescente por engano, a pessoa poderá confirmar que é maior de idade com uma selfie dentro do próprio aplicativo. A verificação usa tecnologia da empresa Persona, especializada em checagem de identidade, e serve como uma espécie de segunda camada de proteção para liberar o acesso completo à ferramenta.

O movimento ocorre em um momento em que o ChatGPT se consolida como um dos serviços digitais de maior alcance global. A própria OpenAI afirma que o chatbot tem hoje 800 milhões de usuários ativos por semana, um volume que coloca a plataforma no mesmo patamar de grandes redes sociais em termos de influência sobre o cotidiano digital.

No comunicado em que apresenta o recurso, a companhia afirma que pretende limitar conteúdos potencialmente prejudiciais, como violência gráfica, encenações sexuais ou violentas, representações de automutilação e desafios virais arriscados. Também entram na lista respostas que promovam padrões extremos de beleza ou dietas pouco saudáveis, tema que preocupa especialistas em saúde mental infantil há pelo menos uma década.

Pressão por segurança digital e controle dos pais

O anúncio insere a OpenAI em um debate que deixa de ser restrito às redes sociais e começa a atingir serviços de inteligência artificial generativa. Países e órgãos reguladores cobram há anos que plataformas ofereçam barreiras mais eficazes para proteger crianças e adolescentes de conteúdo nocivo.

Nas configurações do ChatGPT, pais e responsáveis passam a ter um painel de controle parental. O recurso permite conectar a conta dos filhos, definir horários de silêncio em que o chatbot não pode ser usado e ativar alertas de segurança em situações específicas. Para habilitar o recurso, é preciso entrar em “Configurações”, acessar o menu “Controles Parentais” e selecionar “Adicionar membro da família”.

A OpenAI reage também a uma sequência de episódios que acendem o sinal de alerta em tribunais e governos. Em 2025, pais de um adolescente nos Estados Unidos processam a empresa após alegarem que o ChatGPT orientou o jovem sobre métodos de autoagressão. O caso alimenta a discussão sobre responsabilidade das plataformas quando um sistema de IA oferece respostas a usuários vulneráveis.

O novo sistema chega em um ambiente regulatório mais hostil. A Austrália já proíbe que adolescentes usem redes sociais, numa tentativa de reduzir danos psicológicos e exposição a abusos. No universo dos games, o Roblox, um dos títulos mais populares entre crianças, limita recursos conforme a idade, decisão que provoca uma onda de protestos entre jogadores e influenciadores.

Empresas de tecnologia ajustam suas políticas na tentativa de evitar proibições amplas e multas bilionárias. O esforço da OpenAI para blindar menores pode ser lido como um movimento preventivo diante de projetos de lei nos Estados Unidos e na União Europeia que miram diretamente algoritmos voltados a jovens.

O que muda para usuários, mercado e privacidade

Na prática, o novo sistema altera o tipo de resposta que um adolescente recebe ao conversar com o ChatGPT. Perguntas sobre métodos de automutilação tendem a ser bloqueadas e redirecionadas para mensagens de apoio e incentivo à busca de ajuda profissional. Conteúdos com violência explícita, descrições sexuais detalhadas ou instruções para desafios arriscados também devem ser suavizados ou negados.

As mudanças atingem um público numeroso em um momento em que a própria OpenAI passa a monetizar mais agressivamente o ChatGPT. A empresa já começa a exibir anúncios dentro da ferramenta e busca ampliar a receita com a base de 800 milhões de usuários semanais. Um ambiente mais seguro para menores facilita a atração de marcas que evitam publicidade associada a temas sensíveis.

Especialistas em proteção de dados apontam, porém, que a solução abre uma nova frente de debate sobre privacidade. A verificação por selfie, ainda que opcional, exige o envio de imagem do rosto do usuário, um dado biométrico sensível. A OpenAI afirma que usa a tecnologia da Persona para confirmar idade, mas terá de explicar com clareza como esses registros são armazenados, por quanto tempo e com que finalidade.

Plataformas de IA também enfrentam o desafio de calibrar filtros sem infantilizar a experiência de jovens próximos da maioridade. Usuários de 16 ou 17 anos podem buscar informações sobre sexualidade, saúde mental e relacionamento que não se enquadram em categorias tradicionais de proibição, o que torna o desenho desses limites mais complexo.

Concorrentes da OpenAI acompanham de perto o impacto da mudança. Se o sistema de detecção de idade reduzir incidentes graves e ampliar a confiança de pais e escolas, tende a se tornar referência de mercado. Google, Meta e startups de chatbots menores podem ser pressionados a adotar mecanismos similares para evitar a pecha de plataformas inseguras.

Próximos passos e efeitos de longo prazo

A implementação começa em 21 de janeiro de 2026, mas a adoção plena deve ocorrer de forma gradual, conforme testes de precisão do algoritmo de idade e da verificação por selfie. A empresa indica que ajustes serão feitos ao longo dos próximos meses, à medida que comunidades escolares, pais e órgãos reguladores apontarem falhas ou brechas.

Governos e entidades da sociedade civil tendem a usar a experiência do ChatGPT como laboratório para novas regras de proteção a menores em sistemas de inteligência artificial. Se o modelo funcionar, a pressão deve migrar para outras plataformas que lidam com crianças, de aplicativos educativos a jogos online. Se falhar, o debate sobre proibições totais e limites de idade mais rígidos volta à mesa.

A OpenAI tenta conciliar segurança, privacidade e expansão de negócios em um produto que já faz parte do dia a dia escolar e profissional de milhões de pessoas. A forma como esse equilíbrio será percebido por famílias, anunciantes e reguladores ajuda a definir não só o futuro do ChatGPT, mas também o padrão mínimo esperado de responsabilidade para a próxima geração de serviços de inteligência artificial.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *