Ciencia e Tecnologia

OpenAI adota verificação de idade no ChatGPT a partir de 2026

A OpenAI passa a exigir verificação de idade para acessar o ChatGPT a partir de janeiro de 2026. A medida mira a proteção de usuários jovens e o cumprimento de regras globais de privacidade e segurança.

Pressão regulatória acelera mudança no principal chatbot do mundo

A decisão atinge diretamente uma base de centenas de milhões de usuários que recorrem ao ChatGPT para estudar, trabalhar e se informar. A partir da mudança, quem entrar na plataforma precisa comprovar se tem menos ou mais de 18 anos, em um processo que combina checagem de documentos e análise automatizada de dados, segundo a empresa. O sistema ajusta o tipo de resposta, o acesso a recursos e o nível de supervisão conforme a faixa etária declarada e validada.

A nova exigência nasce em um cenário de fiscalização mais dura sobre grandes empresas de tecnologia. Leis de proteção de dados na Europa, nos Estados Unidos e em países da América Latina avançam para limitar o uso de informações de menores de idade e responsabilizar plataformas por conteúdos e interações considerados sensíveis. A OpenAI se antecipa a possíveis sanções e tenta consolidar uma imagem de conformidade num momento em que a inteligência artificial se torna serviço de massa.

Transformação do produto e disputa por confiança do usuário

A verificação de idade muda a experiência de uso logo na porta de entrada. Em vez de apenas criar uma conta com e-mail ou fazer login por redes sociais, o usuário recebe um aviso sobre as novas regras, com destaque para o tratamento de dados pessoais e o objetivo de proteção a menores. Em mercados com regras mais rígidas, a empresa passa a exigir confirmação documental, com cruzamento de dados e prazos específicos para validação, que podem variar de segundos a algumas horas, conforme o país.

Para usuários adolescentes, o ChatGPT passa a operar com filtros adicionais de conteúdo e limites mais claros de uso. Em solicitações consideradas de risco, como temas de violência, autolesão ou sexualidade, o sistema redireciona a conversa, oferece avisos de segurança ou restringe a resposta. A OpenAI comunica ainda que educadores e responsáveis legais ganham mais ferramentas de supervisão, com opções para acompanhar o histórico de interação de menores, configurar alertas e definir janelas de tempo máximas de uso diário.

Efeito cascata na indústria de IA e próximos movimentos

A adoção da verificação de idade tende a pressionar concorrentes diretos da OpenAI, como desenvolvedores de chatbots usados em buscas, redes sociais e assistentes virtuais. Plataformas que hoje ainda permitem acesso irrestrito a modelos de linguagem passam a lidar com uma referência concreta de padrão mínimo de segurança para menores de idade. Em um setor que movimenta bilhões de dólares por ano, o risco de ficar para trás em responsabilidade pode pesar tanto quanto o atraso tecnológico.

Reguladores de diferentes países acompanham o movimento para avaliar se o modelo da OpenAI pode servir de base para novas regras obrigatórias. Especialistas em direitos digitais lembram que a checagem de idade também amplia a coleta de dados sensíveis e defendem transparência total sobre como essas informações são armazenadas, compartilhadas e excluídas. O debate sobre o limite entre proteção e vigilância tende a ganhar força em 2026, no mesmo ritmo em que a inteligência artificial se espalha por escolas, empresas e serviços públicos.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *