Estudo revela confiança cega no ChatGPT e alerta para risco de desinformação
Um novo estudo global divulgado em 2026 mostra que usuários do ChatGPT confiam cada vez mais, e quase sem questionar, nas respostas da ferramenta. Mesmo quando o conteúdo está errado, a maioria não checa a informação e toma decisões pessoais e profissionais com base no que a inteligência artificial apresenta.
Pesquisa expõe queda do olhar crítico
O trabalho, conduzido com usuários em diferentes países, aponta uma tendência clara: a resposta do ChatGPT vira, na prática, a palavra final. O relatório mostra que, em cenários de teste com respostas propositalmente incorretas, mais de 70% dos participantes aceitavam a informação sem qualquer verificação. Entre os jovens de 18 a 24 anos, o índice passa de 80%.
Os pesquisadores descrevem esse comportamento como “confiança automática”. A expressão resume uma mudança de hábito recente: a leitura crítica cede espaço a um consumo rápido, quase mecânico, do que a tela mostra. “O usuário deixa de perguntar ‘isso faz sentido?’ e passa a perguntar ‘o que a IA diz?’”, resume um dos autores do estudo, que acompanha o uso de sistemas generativos desde 2022.
A pesquisa acompanha a curva de adoção de ferramentas como o ChatGPT, que somam centenas de milhões de usuários em menos de quatro anos. Em 2023, estudos iniciais ainda registravam alta desconfiança, com mais de metade dos entrevistados afirmando revisar as respostas com buscas paralelas. Agora o cenário se inverte: só uma minoria declara conferir o conteúdo em outras fontes, mesmo quando toma decisões com impacto direto em finanças, saúde ou estudos.
Os testes incluem perguntas sobre temas variados, de informações triviais a dúvidas jurídicas e orientações sobre bem-estar. Em cerca de 30% dos casos, os pesquisadores inserem erros factuais ou interpretações distorcidas. A maior parte passa sem contestação. Em alguns grupos, 9 em cada 10 pessoas não identificam falhas óbvias, mesmo quando têm conhecimento prévio suficiente para desconfiar da resposta.
Erro de máquina, consequência humana
Os resultados acendem um alerta entre especialistas em educação, direito digital e políticas públicas. A combinação de respostas convincentes com uma interface simples transforma a ferramenta em uma espécie de “oráculo moderno”. A diferença é que, desta vez, esse oráculo erra com frequência. “A questão não é se a IA erra, mas quanto as pessoas estão dispostas a perdoar esse erro sem perceber”, afirma uma pesquisadora em alfabetização digital ouvida pela reportagem.
O impacto vai além do campo individual. Quando milhares de pessoas reproduzem, ao mesmo tempo, a mesma resposta equivocada, a desinformação ganha escala inédita. O estudo menciona casos em que orientações imprecisas sobre documentos legais ou prazos burocráticos se espalham em grupos de mensagens e redes sociais, criando confusão em processos simples, como inscrições em concursos ou pedidos de benefícios. Numa projeção conservadora, os autores estimam que, se a tendência se mantiver, o volume de decisões baseadas em respostas erradas pode crescer mais de 40% até 2028.
Em ambientes de trabalho, o efeito é mais sutil, mas não menos grave. Profissionais de áreas como marketing, recursos humanos e atendimento ao cliente passam a usar o ChatGPT como atalho para produzir relatórios, e-mails e pareceres. Quando o texto vem pronto e parece seguro, a revisão some. Uma frase mal formulada num parecer jurídico, um dado desatualizado num relatório financeiro ou uma recomendação equivocada de política interna pode gerar prejuízos reais, ainda que silenciosos.
Na educação, professores relatam uma mudança rápida de postura em sala de aula. Alunos apresentam trabalhos com trechos que reproduzem erros recorrentes das máquinas, muitas vezes com datas trocadas ou conceitos distorcidos. Quando confrontados, respondem que “foi o ChatGPT que disse”. A frase, que surge como justificativa, expõe o centro do problema: a transferência da responsabilidade de pensar para um sistema que não assume culpa nem responde por danos.
Pressão por educação digital e responsabilidade das big techs
O estudo cobra respostas em três frentes. A primeira é educacional. Os autores defendem a criação de programas de pensamento crítico digital, integrados a escolas e universidades, ainda em 2026. A proposta inclui disciplinas que tratem de verificação de fatos, leitura de fontes e análise de viés algorítmico, com metas de alcance de ao menos 1 milhão de estudantes por ano em cursos presenciais e online.
A segunda frente aponta para as empresas de tecnologia. Os pesquisadores sugerem que desenvolvedores de IA adotem mecanismos mais visíveis de alerta sobre incerteza, com rótulos claros sempre que a resposta tiver baixa confiabilidade. Algumas dessas soluções já aparecem em testes, como avisos de “resposta potencialmente incompleta” ou “recomenda-se checagem em fontes oficiais”. A avaliação do estudo, no entanto, é que tais avisos ainda são discretos e, muitas vezes, ignorados após poucos segundos de uso.
Na terceira frente, o foco recai sobre a sociedade em geral e sobre reguladores. Agências de defesa do consumidor e órgãos responsáveis por proteção de dados começam a discutir regras mais rígidas para o uso de IA em áreas sensíveis, como saúde, crédito e serviços públicos. Projetos de lei em discussão em diferentes países estabelecem obrigações de transparência, registro de fontes e possibilidade de auditoria independente sobre modelos generativos, com prazos de adaptação que variam de 12 a 36 meses.
A pesquisa não sugere abandonar o uso de ferramentas como o ChatGPT, mas mudar a forma de interação. Em vez de aceitar a primeira resposta como definitiva, o usuário é convidado a tratá-la como rascunho, hipótese, ponto de partida. “Confiar menos na máquina significa confiar mais em si mesmo”, diz um dos autores. A frase resume o desafio dos próximos anos: recuperar o hábito de checar, questionar e comparar, num cenário em que a resposta pronta aparece em segundos e parece sempre convincente.
O relatório termina com uma pergunta dirigida aos leitores: quem assume a responsabilidade quando uma resposta errada da IA leva a uma decisão errada? Até que essa questão tenha resposta jurídica clara e rotina social consolidada, a recomendação é simples, embora difícil de seguir no dia a dia: desacelerar, duvidar e checar. A tecnologia avança em ritmo acelerado. A capacidade crítica humana decide se esse avanço melhora a vida em sociedade ou aprofunda a era da desinformação.
