
Um vídeo que está circulando nas redes sociais, supostamente mostrando o padre Fábio de Melo pedindo doações para uma criança hospitalizada, foi desmentido como falso. A gravação, que parece convincente à primeira vista, na verdade utiliza um áudio gerado por inteligência artificial para simular a voz do religioso.
Como a fraude foi descoberta?
Especialistas em tecnologia analisaram o material e confirmaram que se trata de uma montagem. O áudio foi criado por ferramentas de IA, enquanto as imagens foram editadas para parecerem autênticas. Essa técnica, conhecida como deepfake, tem sido cada vez mais utilizada para espalhar desinformação.
Padre Fábio de Melo não está envolvido
O próprio padre Fábio de Melo já se manifestou sobre o caso, afirmando que não tem qualquer ligação com a campanha de doações mostrada no vídeo. Ele alertou seus seguidores para não caírem no golpe e nem repassarem o material.
Como identificar vídeos falsos?
- Verifique a fonte original da publicação
- Desconfie de pedidos de dinheiro urgentes
- Pesquise se outras fontes confiáveis estão noticiando o fato
- Observe se a voz e os movimentos labiais estão sincronizados
Especialistas recomendam sempre checar informações antes de compartilhar, principalmente quando envolvem solicitações financeiras. A tecnologia de deepfake está cada vez mais sofisticada, tornando essencial o desenvolvimento do senso crítico ao consumir conteúdo nas redes.