Ciencia e Tecnologia

OpenAI passa a exigir verificação de idade para usar o ChatGPT

A OpenAI anuncia nesta terça-feira (20) a implantação de um sistema de verificação de idade para todos os usuários do ChatGPT. A mudança busca alinhar o uso da plataforma às leis de proteção de dados e a padrões mais rígidos de segurança digital, com foco na proteção de menores.

Pressão regulatória acelera mudança no maior chatbot do mundo

A medida entra em vigor em meio ao avanço de projetos de regulação da inteligência artificial em diferentes países e à consolidação de leis de proteção de dados, como o GDPR europeu, em vigor desde 2018, e a LGPD brasileira, que passa a ser aplicada com mais rigor desde 2021. Ao exigir que cada usuário comprove sua idade antes de acessar o ChatGPT, a OpenAI tenta responder a uma cobrança que já vinha de reguladores, de educadores e de pais preocupados com o uso irrestrito da ferramenta por crianças e adolescentes.

O novo procedimento aparece logo na primeira interação com o sistema, tanto na versão web quanto nos aplicativos móveis. O usuário precisa informar a faixa etária e, em alguns mercados, validar o dado com documentos ou serviços de checagem de identidade. A empresa não detalha todos os critérios, mas afirma que o modelo segue “princípios de minimização de dados” e que a coleta ocorre “apenas na medida necessária para verificar a idade”. Em nota enviada à imprensa internacional, a companhia resume a estratégia: “Queremos que o acesso à IA avançada seja amplo, mas também seguro. A verificação de idade é hoje uma das ferramentas mais importantes para isso”.

O que muda na prática para usuários e plataformas

Para quem usa o ChatGPT diariamente, a mudança se traduz em uma etapa extra antes da conversa com a máquina. Contas associadas a menores de 13 anos, em países que seguem esse limite, tendem a enfrentar bloqueios diretos. Adolescentes de 13 a 17 anos podem receber versões com recursos limitados, filtros de conteúdo mais rígidos e recomendações educativas mais frequentes. A decisão coloca o ChatGPT em linha com práticas já presentes em redes sociais e serviços de vídeo, que desde meados da década passada passaram a adotar checagens de idade mais visíveis, muitas vezes sob ameaça de multas bilionárias.

Especialistas em segurança apontam que a mudança não afeta apenas o fluxo de cadastro, mas também a forma como a IA é treinada e ajustada. Ao segmentar grupos etários, a OpenAI ganha mais margem para calibrar respostas sensíveis, como temas de saúde mental, sexualidade ou finanças pessoais. Grupos de pesquisa em ética digital acompanham o movimento com atenção. “A verificação de idade tende a reduzir o acesso de crianças a conteúdos inadequados, mas aumenta o volume de dados pessoais em jogo”, afirma um pesquisador ouvido pela reportagem. Segundo ele, o efeito líquido dependerá de quão transparente a empresa será sobre armazenamento, prazo de retenção e eventuais parcerias com terceiros.

Equilíbrio delicado entre proteção, privacidade e inclusão digital

A nova exigência reforça a liderança da OpenAI em um setor que corre para definir suas próprias regras antes que elas sejam impostas de fora. Desde 2023, governos discutem códigos de conduta para IA generativa, e a União Europeia negocia um marco regulatório que prevê obrigações específicas para sistemas usados por milhões de pessoas. Ao adotar a verificação de idade em 2026, a companhia sinaliza disposição de se antecipar a parte dessas normas e tenta construir uma narrativa de responsabilidade social, em vez de mera reação a sanções.

O impacto, no entanto, não é uniforme. Professores que passaram a usar o ChatGPT em sala de aula podem enfrentar barreiras adicionais para trabalhar com turmas mistas, especialmente em escolas públicas com infraestrutura precária e pouco apoio técnico. Famílias de baixa renda, que compartilham o mesmo dispositivo entre adultos e crianças, podem ter dificuldade para gerir contas separadas e entender termos de uso escritos em linguagem jurídica. Plataformas concorrentes observam o movimento com atenção. Se a iniciativa da OpenAI se consolidar como padrão de mercado ao longo dos próximos 12 a 24 meses, outras empresas tendem a seguir a mesma trilha para não ficar em desvantagem na disputa por confiança de usuários e reguladores.

Próximos passos e a disputa por regras globais da IA

A verificação de idade não resolve, sozinha, as dúvidas sobre o lugar da inteligência artificial na vida de crianças e adolescentes, mas redefine o patamar da conversa. Organismos internacionais defendem há pelo menos cinco anos que empresas de tecnologia assumam responsabilidade ativa pela proteção de menores. A partir de agora, a OpenAI passa a ser cobrada não apenas pelo desenho do sistema, mas pela eficácia concreta de seus filtros e pela clareza com que explica o que faz com os dados coletados. A empresa promete revisar o modelo de verificação ao longo de 2026, a partir de métricas de segurança e reclamações de usuários.

O debate sobre quem pode falar com máquinas tão poderosas, em que condições e a que custo, ganha uma referência concreta a partir deste 20 de janeiro. Reguladores tendem a usar o caso como exemplo em audiências e consultas públicas nos próximos meses. Escolas, famílias e empresas, por sua vez, terão de decidir se aceitam o novo equilíbrio entre conveniência e proteção. A pergunta que fica é se a checagem de idade será lembrada como um simples obstáculo na tela inicial ou como o primeiro passo de uma geração de IAs que crescem já cercadas por limites claros.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *