
Pois é, pessoal — a criatividade dos golpistas não tem limites. Dessa vez, a moda é usar áudio falsificado para aplicar mais um golpe no WhatsApp, e o pior: imitando a voz da própria mãe da vítima. Sim, você leu certo.
Parece coisa de filme, mas a realidade é que criminosos estão usando ferramentas de IA para clonar vozes de entes queridos e pedir dinheiro, informações ou acesso a contas. Tudo soa tão convincente que até o tom de preocupação — aquele que só sua mãe tem — está lá.
Como o golpe funciona?
Os golpistas entram em contato com um áudio curto, muitas vezes começando com um simples “Oi, filho…” ou “Me ajuda rápido…”.
- Eles usam snippets de áudio roubados de redes sociais ou até de conversas anteriores;
- A voz é clonada com tecnologia de síntese vocal, cada vez mais acessível;
- O pedido geralmente envolve urgência: uma conta para pagar, um PIX que não pode esperar, um problema que só você pode resolver.
E aí? Quem desconfiaria da própria mãe?
Já aconteceu no Brasil? Sim!
Casos assim já foram registrados em estados como São Paulo, Rio de Janeiro e Minas Gerais. E olha — não são poucos. As vítimas, na maioria das vezes, só percebem que caíram no conto do vigário quando já é tarde.
“Mas como assim, gente? Como alguém cai nisso?”
É simples: o golpe é emocional. Explora laços familiares, confiança e aquela vontade de ajudar quem a gente ama. E os criminosos sabem disso.
Dicas para não cair no golpe
- Desconfie de pedidos urgentes por áudio, mesmo que a voz seja familiar;
- Nunca compartilhe dados bancários, senhas ou códigos por mensagem;
- Verifique a situação por outro canal — ligue para a pessoa, mande mensagem em outra rede;
- Ative a verificação em duas etapas no WhatsApp e em outros aplicativos;
- Denuncie contatos suspeitos diretamente no app.
E lembre-se: tecnologia avança, mas o bom e velho telefone ainda é a melhor forma de confirmar se é verdade ou lorota.
Fique esperto. Espalhe a informação. E proteja quem você ama — inclusive daqueles que fingem ser quem não são.