OpenAI ativa verificação de idade no ChatGPT e limita acesso de menores
A OpenAI passa a exigir verificação de idade para usar o ChatGPT a partir de 20 de janeiro de 2026. O sistema restringe recursos para quem não comprovar ter a idade mínima definida pela empresa.
Pressão global por segurança digital acelera decisão
A mudança surge em meio à cobrança crescente de governos, escolas e famílias por mais proteção a crianças e adolescentes em ambientes digitais. A presidente-executiva da OpenAI, cujo nome a empresa não divulga oficialmente neste anúncio, coloca a medida como parte de uma estratégia mais ampla de responsabilidade social e de alinhamento às normas internacionais de proteção de dados e de uso de inteligência artificial.
O novo sistema passa a operar diretamente na interface do ChatGPT, tanto na versão web quanto em aplicativos. Usuários precisarão informar a idade e, em determinados países, enviar comprovação adicional, como documentos ou checagem via serviços de identidade digital. Sem esse passo, parte das funcionalidades fica bloqueada, incluindo acesso a certos tipos de conteúdo, integração com plugins externos e uso prolongado da ferramenta em sessões contínuas.
Como funciona a verificação e o que muda na prática
A OpenAI informa que o processo é gradual e segue regras locais. Em mercados com legislação mais rígida, como União Europeia e Reino Unido, a verificação tende a ser mais detalhada, em linha com normas como o GDPR, em vigor desde 2018. Em outros países, o sistema pode começar com autodeclaração de idade e avançar para modelos mais robustos à medida que regulações nacionais forem aprovadas.
Na prática, a plataforma passa a operar com faixas etárias distintas. Usuários abaixo de 13 anos ficam impedidos de criar contas individuais onde a lei assim exigir, enquanto adolescentes entre 13 e 17 anos acessam uma versão reduzida, com filtros mais rígidos de conteúdo sensível, limitação de histórico e menos opções de personalização. O acesso pleno permanece reservado a maiores de 18 anos, com avisos claros sobre coleta de dados, riscos de uso e responsabilidade individual.
Reação do setor e efeito sobre concorrentes
Especialistas em proteção de dados veem o movimento como um divisor de águas no mercado de inteligência artificial generativa. Desde 2023, órgãos reguladores discutem regras específicas para sistemas capazes de produzir texto, áudio e imagem em larga escala, especialmente quando o público inclui menores. Ao vincular o uso do ChatGPT a um controle de idade explícito, a OpenAI tenta se antecipar a sanções e investigações que já miram outras plataformas digitais.
Empresas concorrentes, que somam centenas de milhões de usuários em serviços de IA e redes sociais, passam a enfrentar um novo parâmetro informal. A expectativa de analistas de mercado é que, ao longo de 2026, grandes companhias de tecnologia adotem mecanismos semelhantes para não ficarem expostas a questionamentos públicos e a ações judiciais coletivas. A medida também pode influenciar a redação de leis nacionais e acordos internacionais sobre responsabilidade por conteúdo automatizado.
Impacto sobre famílias, escolas e políticas públicas
Para pais e responsáveis, a mudança oferece uma camada adicional de controle sobre o tempo e o tipo de interação que crianças mantêm com a inteligência artificial. Educadores veem na medida uma oportunidade de negociar, em sala de aula, o uso pedagógico de ferramentas como o ChatGPT, com regras claras e limites visíveis. Plataformas que oferecem recursos educacionais baseados em IA precisarão ajustar termos de uso, rotinas de login e materiais de orientação.
Governos acompanham o movimento com interesse. Nos últimos cinco anos, diferentes países criam leis para regular redes sociais, jogos online e serviços de streaming, quase sempre com foco na proteção de menores. A formalização de um sistema de verificação de idade em um dos serviços de IA mais populares do mundo tende a alimentar debates em parlamentos e agências reguladoras sobre padrões mínimos para qualquer plataforma que use algoritmos avançados, de chatbots a assistentes embarcados em celulares.
Próximos passos da regulação da IA
A OpenAI sinaliza que a verificação de idade é apenas uma etapa de um esforço mais amplo para garantir o que a empresa chama de “uso responsável” da tecnologia. A companhia avalia integrar controles adicionais de privacidade para menores, relatórios de transparência periódicos e canais simplificados para denúncias de uso indevido. A discussão inclui também limites para coleta de dados de navegação de adolescentes, hoje foco de controvérsia em diferentes cortes ao redor do mundo.
O sistema que entra em vigor em 20 de janeiro de 2026 deve servir de laboratório para ajustes técnicos e negociações com reguladores em ao menos três continentes. A medida abre espaço para uma pergunta central que ainda não encontra consenso: quem define, em detalhes, o que é um ambiente digital seguro para crianças e adolescentes quando a inteligência artificial passa a mediar, minuto a minuto, a experiência online de milhões de pessoas.
