Foto viral de helicóptero militar americano abatido no Irã é falsa e gerada por IA
Circula amplamente nas redes sociais uma imagem que supostamente mostra um helicóptero militar dos Estados Unidos abatido em um deserto no Irã. No entanto, trata-se de conteúdo completamente falso, produzido integralmente por inteligência artificial da Google.
Como a imagem falsa se espalhou
A fotografia começou a ser compartilhada em plataformas como X (antigo Twitter), Facebook, Threads e Instagram desde o domingo, 5 de maio. A cena exibe um helicóptero aparentemente destruído em terreno desértico, com destroços espalhados e fumaça branca saindo de uma das hélices.
No lado esquerdo do rotor da cauda, um grupo de dez militares segura duas bandeiras do Irã enquanto aponta armas para o céu. As legendas que acompanham o material em inglês afirmam: "Uma imagem em grande escala do helicóptero Black Hawk acidentado no deserto, com soldados iranianos ao fundo", "Este é o helicóptero da superpotência americana deitado" e "BLACK HAWK CAIU NO DESERTO IRANIANO. Revés histórico para as Forças Armadas dos EUA!".
Contexto do conteúdo enganoso
O material falso começou a circular apenas dois dias após o Irã realmente ter abatido um caça americano. Horas depois desse incidente real, o presidente Donald Trump confirmou a derrubada da aeronave e anunciou que os Estados Unidos lançaram uma operação de emergência para resgatar os dois pilotos a bordo.
Segundo fontes do governo americano ouvidas pela agência Reuters, os EUA mobilizaram dois helicópteros Black Hawks para a operação, que acabaram sendo atingidos por fogo iraniano, mas conseguiram sair do espaço aéreo do país e pousar em segurança. Um dos pilotos foi resgatado na sexta-feira, enquanto o outro só foi encontrado no domingo.
Verificação técnica comprova falsidade
A equipe de checagem submeteu a imagem a duas ferramentas especializadas em detecção de inteligência artificial, que confirmaram categoricamente a origem sintética do material:
- Hive Moderation: Indicou que "o arquivo provavelmente contém conteúdo gerado por IA ou deepfake" com 99,9% de probabilidade de ser conteúdo sintético.
- SynthID Detector: Detectou marca d'água da IA do Google em todo o conteúdo com "confiança muito alta". Esta plataforma do Google verifica especificamente conteúdos criados com as ferramentas de IA da própria companhia.
Diferentemente de outros modelos que geram deepfakes a partir de vídeos reais, a IA do Google produz cenas hiper-realistas do zero, sem referência a material verdadeiro publicado anteriormente. A tecnologia insere uma marca d'água digital imperceptível para humanos, mas detectável pelos sistemas de verificação.
Imprecisões reveladoras na imagem falsa
Além das confirmações técnicas, o material apresenta erros comuns em produções de inteligência artificial. Um dos exemplos mais evidentes é a sombra da arma que um dos homens parece segurar, que é completamente diferente do modelo real da arma.
Essa inconsistência visual é um dos vários indícios que especialistas utilizam para identificar conteúdos gerados artificialmente, mesmo quando as imagens parecem extremamente realistas à primeira vista.
Resposta das plataformas e conscientização
Em um post no X que compartilhava a imagem falsa, usuários questionaram o Grok, chatbot da própria plataforma, sobre a veracidade do material. Posteriormente, uma nota da comunidade foi inserida alertando: "Esta imagem foi gerada por IA".
Este caso ilustra como conteúdos falsos gerados por inteligência artificial podem se espalhar rapidamente, especialmente quando aproveitam contextos geopolíticos sensíveis e notícias recentes para ganhar credibilidade inicial.



