Estudo mostra que chatbots de IA erram com frequência em conselhos de saúde
Chatbots de inteligência artificial dão conselhos de saúde errados com frequência, revelam pesquisadores em estudo divulgado neste domingo, 22 de fevereiro de 2026. A análise de interações reais entre usuários e sistemas populares aponta falhas graves na forma como essas ferramentas orientam tratamentos, avaliam sintomas e sugerem condutas médicas.
Erros em consultas que viram rotina
Os pesquisadores se debruçam sobre centenas de diálogos entre pacientes e assistentes virtuais de saúde baseados em IA, disponíveis em plataformas abertas e aplicativos usados no dia a dia. Em mais de um terço das respostas avaliadas, os sistemas oferecem orientações imprecisas, incompletas ou claramente incorretas em relação a diagnósticos prováveis, necessidade de procurar um médico ou uso de medicamentos.
As falhas aparecem sobretudo em situações em que o usuário descreve sintomas de forma vaga, mistura queixas antigas com problemas novos ou usa termos leigos para doenças específicas. Quando a pergunta chega truncada, o algoritmo tenta preencher as lacunas e acaba criando uma orientação que soa segura, mas não se sustenta do ponto de vista clínico. “O problema não é só o erro, é o grau de confiança com que o erro aparece na tela”, resume um dos autores do estudo.
Risco silencioso para a saúde pública
O trabalho alerta para um risco crescente: a normalização de consultas informais com chatbots para decisões que antes passavam, quase sempre, por um profissional. A popularização desses sistemas, muitos gratuitos e disponíveis 24 horas por dia, estimula o uso em situações críticas, como dor no peito, suspeita de infarto, reações a medicamentos ou sinais iniciais de AVC. Em casos assim, atrasar 30 minutos a ida ao hospital pode significar perda de função cerebral ou até morte.
Os pesquisadores identificam respostas em que o chatbot minimiza sintomas graves, sugere esperar “alguns dias” antes de buscar atendimento ou recomenda automedicação com analgésicos e anti-inflamatórios sem qualquer triagem de alergias, doenças pré-existentes ou uso de outros remédios. Em cerca de 20% dos diálogos analisados, o sistema deixa de enfatizar a necessidade de pronto-atendimento mesmo diante de sinais clássicos de emergência, como falta de ar intensa ou confusão mental súbita.
Limites da tecnologia e responsabilidade de quem a usa
Os autores do estudo apontam um fator central para a alta taxa de erros: a forma como as perguntas são feitas. Usuários tendem a condensar vários sintomas em uma única frase, omitem informações importantes e, muitas vezes, pedem um “diagnóstico rápido” sem detalhar histórico, idade, uso de remédios, gravidez ou doenças crônicas. Modelos de linguagem, treinados para responder a quase qualquer coisa, tratam essas lacunas como meros problemas de texto, não como riscos concretos à saúde de alguém do outro lado da tela.
Em diversos trechos da pesquisa, os cientistas destacam que esses sistemas não funcionam como médicos virtuais, embora parte do público os enxergue assim. “O chatbot não examina, não escuta o pulmão, não mede pressão, não pede exames. Ele apenas reorganiza informações em linguagem natural”, afirma outro pesquisador. Segundo ele, a aparência de conversa humana, com respostas completas e educadas, cria uma sensação de segurança que não corresponde à capacidade real da tecnologia de substituir uma consulta presencial.
Pressão por regulação e mudanças no desenho dos sistemas
O estudo chega em um momento de corrida comercial pelos chamados assistentes de saúde digitais, usados por planos de saúde, hospitais privados, startups e grandes empresas de tecnologia. Organizações públicas também começam a testar chatbots em centrais de triagem. O avanço rápido, sem regras claras, preocupa especialistas em saúde digital, que veem um vácuo de responsabilidade quando uma orientação errada contribui para um desfecho grave. Quem responde: o desenvolvedor, a empresa que incorpora o sistema ao atendimento ou o usuário que confiou demais na ferramenta?
Os pesquisadores defendem que órgãos de saúde e governos estabeleçam padrões mínimos de segurança, com auditorias periódicas, transparência sobre limitações dos modelos e proibição de respostas categóricas em situações de risco alto. Também sugerem mudanças no desenho das interfaces: perguntas obrigatórias sobre idade, tempo de sintomas e doenças pré-existentes, alertas visuais claros quando a descrição sugere emergência e reforço, sempre que possível, da mensagem “procure atendimento médico imediato”.
O que muda para usuários, empresas e governos
Na prática, o estudo funciona como um freio de cautela em um mercado em expansão. Empresas que vendem soluções de triagem digital a hospitais e operadoras de saúde tendem a ser pressionadas a provar, com números, a segurança de seus sistemas. Desenvolvedores de IA são incentivados a investir em modelos que interpretem melhor a linguagem ambígua do usuário comum, reduzam respostas “inventadas” e aprendam a dizer “não sei” em vez de palpitar sobre temas críticos.
Para o usuário final, a mensagem é direta: chatbot serve como ponto de partida, não como última palavra. Informações básicas sobre sintomas, explicações de exames e orientações gerais continuam úteis, mas a tentativa de transformar a conversa com a máquina em consulta completa coloca a saúde em risco. A tendência é que, nos próximos anos, governos avancem em regulações específicas, planos de saúde criem protocolos próprios para uso desses sistemas e médicos sejam chamados a participar do treinamento e da supervisão das respostas. Até lá, a dúvida essencial permanece em aberto: quanto da nossa saúde estamos dispostos a terceirizar para uma tela que fala com convicção, mas ainda erra demais?
