Ciencia e Tecnologia

Golpe com voz clonada por IA usa WhatsApp para tirar dinheiro de famílias

Uma mulher brasileira tem a voz clonada por inteligência artificial em 2026 e vira isca em um golpe pelo WhatsApp. Criminosos usam áudios falsos para pedir dinheiro a amigos e familiares, que acreditam estar ajudando alguém próximo em emergência.

Chamadas mudas viram porta de entrada para o crime

O golpe começa de forma banal, com uma ligação silenciosa de número desconhecido. Do outro lado da linha, ninguém se apresenta, não há ruído de fundo, apenas alguns segundos de espera. Para boa parte das pessoas, é mais um incômodo cotidiano. Para grupos especializados em fraudes digitais, é matéria-prima preciosa.

Nesse tipo de esquema, investigado pela Polícia Civil de São Paulo desde, pelo menos, 2025, a chamada muda serve para capturar fragmentos da voz da vítima. Bastam um “alô”, um “oi, quem fala?” ou qualquer resposta curta para que serviços de clonagem de voz, alimentados por inteligência artificial, tenham material suficiente para criar uma cópia convincente.

Em poucos minutos, softwares antes restritos a laboratórios e estúdios profissionais geram uma voz sintética quase idêntica à original. Essa voz passa a ser usada em áudios de WhatsApp, enviados a partir de números falsos com a foto e o nome da vítima, roubados diretamente do perfil do aplicativo. Do outro lado, estão pais, irmãos, amigos de infância, colegas de trabalho. Todos reconhecem o rosto e, quando ouvem o áudio, também reconhecem a voz.

Nesse caso, a mulher só descobre que virou alvo quando um parente liga de volta para confirmar um pedido de ajuda urgente. O parente estranha um segundo pedido no mesmo dia, com valores diferentes, e decide checar. Ela nega ter enviado qualquer mensagem ou solicitado transferência. Enquanto isso, outros contatos já repassam quantias que variam de R$ 300 a R$ 3.000, acreditando que socorrem alguém em apuro.

A tática não é isolada. Comunicado da Polícia Civil de São Paulo divulgado em 2025 já alertava que “ligações mudas, antes usadas apenas para checar se um número está ativo, agora podem servir para capturar a voz de vítimas e abastecer serviços de deepfake”. Com a popularização de ferramentas de IA generativa, que imitam fala, sotaque e emoção em segundos, o que era experimento vira rotina criminosa.

Quando a própria voz vira arma contra amigos e parentes

O golpe descrito pelos investigadores explora duas fragilidades ao mesmo tempo: a exposição pública de dados pessoais e a confiança automática naquilo que parece familiar. O criminoso não precisa conhecer a vítima nem sua família. Ele colhe nomes, fotos e relações em redes sociais abertas, cruza essas informações com painéis ilegais de dados vazados e monta, em poucas horas, uma rede completa de possíveis alvos.

Assim que a voz clonada está pronta, começam as mensagens. Em geral, o texto é curto, direto e urgente. O contato recebe um áudio que soa como a filha, o irmão ou a amiga dizendo que teve um problema inesperado, que precisa fazer um pagamento em poucos minutos ou que está sem acesso ao aplicativo do banco. O apelo é emocional e vem acompanhado de detalhes plausíveis, muitas vezes colhidos em postagens públicas.

“A popularização da IA tornou esse tipo de fraude mais acessível fora do ambiente de cibercrime especializado”, afirma Hiago Kin Levi, presidente do Instituto Brasileiro de Resposta a Incidentes Cibernéticos. Segundo ele, criminosos com pouco conhecimento técnico já conseguem simular vozes usando plataformas on-line baratas, algumas cobrando menos de US$ 10 por mês.

As ferramentas mais recentes funcionam com trechos mínimos de áudio. Em vez de gravações longas, bastam 5 a 10 segundos de fala para produzir um modelo de voz útil ao golpe, de acordo com especialistas em segurança digital. O resultado não é perfeito, mas, em conversas rápidas por WhatsApp, com barulho de fundo e clima de urgência, essa diferença quase não aparece.

“As IAs estão mais evoluídas e podem usar uma voz humanizada, em alguns casos até dizer o primeiro nome da pessoa”, diz Levi. Quando o golpista envia um áudio chamando o contato de “mãe”, “pai” ou pelo apelido de infância, a barreira de desconfiança cai ainda mais. O pedido de dinheiro deixa de ser uma transação financeira e vira um pedido de socorro.

Apesar do avanço da tecnologia, o enredo segue padrões antigos. O criminoso se apoia em pressa, medo e culpa. Alega um boleto que vence em 30 minutos, uma cirurgia que precisa de depósito imediato, um sequestro-relâmpago em curso. O objetivo é impedir que a pessoa respire, pense e confira a informação em outro canal, como uma ligação de vídeo ou uma chamada para o número verdadeiro da vítima.

Como tentar se proteger em um cenário de deepfakes baratos

O crescimento desse tipo de golpe pressiona autoridades e cidadãos a rever hábitos básicos de comunicação. A Polícia Civil de São Paulo recomenda configurar o celular para silenciar chamadas de números desconhecidos, recurso disponível nos principais modelos de Android e iPhone desde meados da década passada. A medida não elimina o risco, mas reduz a chance de que a voz seja gravada em ligações aleatórias.

Se a pessoa atender, a orientação é simples: não falar primeiro. “Se você atender e a ligação estiver muda, não diga ‘alô’ nem ‘sim’ e espere o outro lado falar”, afirma o comunicado da corporação. Em chamadas suspeitas, a recomendação é não fornecer qualquer dado pessoal, não confirmar códigos e encerrar a ligação caso o interlocutor insista em manter a conversa vaga.

Especialistas sugerem que famílias combinem previamente uma espécie de palavra-chave para emergências, algo que não esteja em redes sociais nem em documentos vazados. Em situações de pedido urgente de dinheiro, a orientação é sempre validar pelo menos em um segundo canal, como uma ligação de vídeo ou uma chamada para o número já conhecido, antes de realizar transferências.

Evitar exposição excessiva também entra no manual de sobrevivência digital. “É importante ter cuidado com o que compartilha publicamente, inclusive áudios e vídeos em redes sociais, pois podem ser usados para treinar modelos de clonagem de voz”, afirma o especialista em segurança Anderson Leite. A recomendação vale para depoimentos longos, lives e até dublagens de moda em aplicativos de vídeo curto.

Bloquear e denunciar números que fazem ligações mudas ajuda a interromper tentativas de golpe em estágio inicial. Em casos consumados, as autoridades orientam registrar boletim de ocorrência, guardar comprovantes de transferência, áudios e conversas, e informar bancos e plataformas de pagamento em até 24 horas para tentar reverter operações.

No horizonte, cresce a pressão por soluções técnicas e políticas públicas. Empresas de tecnologia testam sistemas de detecção automática de voz sintética em chamadas e mensagens, enquanto órgãos de defesa do consumidor cobram mais responsabilidade de bancos e operadoras na prevenção de fraudes. O avanço de deepfakes baratos empurra o país para uma discussão maior: em um mundo em que nem a própria voz é prova confiável, como reconstruir um mínimo de confiança nas relações digitais?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *