Uma imagem supostamente dramática que vem circulando intensamente no WhatsApp e outras redes sociais, mostrando uma mãe abraçando o filho momentos antes de uma suposta execução no Sudão, é completamente falsa. A cena não é real e foi criada usando ferramentas de inteligência artificial disponíveis no Google.
Como a falsificação foi descoberta
Especialistas em verificação de fatos do Fato ou Fake, do G1, analisaram a imagem e identificaram múltiplas inconsistências que revelam sua origem artificial. Entre os sinais mais evidentes estão:
- Anomalias nas mãos dos personagens, um erro comum em imagens geradas por IA
- Problemas na definição dos rostos e expressões faciais
- Incoerências nas sombras e iluminação da cena
- Falta de contexto específico sobre local e data do suposto evento
O perigo das imagens geradas por IA
Este caso serve como um alerta importante sobre o avanço das tecnologias de inteligência artificial e seu potencial uso para disseminar desinformação. Imagens que antes exigiam habilidades avançadas de edição agora podem ser criadas por qualquer pessoa com acesso a ferramentas simples online.
"As pessoas precisam desenvolver um olhar mais crítico sobre o que recebem nas redes sociais, especialmente quando o conteúdo é emocionalmente carregado", explica um especialista em verificação digital.
Como identificar imagens falsas
- Procure por anomalias anatômicas, especialmente nas mãos e olhos
- Analise a consistência das sombras e reflexos
- Verifique a fonte original da imagem
- Busque por notícias de veículos confiáveis sobre o assunto
- Use ferramentas de verificação de fatos
O contexto de conflito no Sudão torna a disseminação desse tipo de conteúdo particularmente perigosa, pois pode influenciar opiniões públicas e até mesmo políticas internacionais baseadas em informações falsas.
Se você receber esta imagem, a recomendação é não compartilhar e alertar os contatos sobre sua falsidade. A luta contra a desinformação começa com a checagem cuidadosa antes do repasse.