Vídeos de IA falsos sobre nevasca em Kamchatka viralizam nas redes sociais
Vídeos falsos de IA sobre nevasca na Rússia são desmentidos

Vídeos de IA falsos sobre nevasca em Kamchatka viralizam nas redes sociais

Circulam nas redes sociais vídeos impressionantes que supostamente mostram cidades completamente tomadas por neve, com prédios cobertos até o topo e pessoas deslizando por enormes "escorregadores" de gelo. As legendas alegam que os registros são da nevasca que atingiu a região de Kamchatka, na Rússia, nesta segunda-feira (19). No entanto, é importante esclarecer que todos esses conteúdos são falsos e foram produzidos com inteligência artificial.

Como são os vídeos falsos?

Publicados principalmente na plataforma X, os três vídeos começaram a circular nesta segunda-feira (19), data em que a península de Kamchatka foi atingida pela nevasca mais forte dos últimos 60 anos. O fenômeno natural realmente criou montanhas de neve, bloqueou entradas de prédios e soterrou carros, mas nenhum dos vídeos em circulação é autêntico.

Um dos conteúdos mostra um prédio completamente coberto de neve até o topo, onde crianças descem como se fosse um escorregador gigante. O narrador do áudio diz em russo: "Nossa, parece que cai direto do telhado. Este é o quarto andar, é assustador. Mas é divertido". A legenda em inglês afirma: "Kamchatka. Após uma tempestade de neve, pessoas deslizam do quarto andar".

Outra gravação exibe metade de um edifício coberto com neve, também identificando o episódio como se fosse em Kamchatka. Um terceiro registro apresenta um compilado de imagens de ruas cobertas por neve, com pessoas caminhando entre muros de neve. A legenda diz: "O inverno chegou a Kamchatka, na Rússia, e a vida continua com uma calma impressionante em meio a um cenário congelado de tirar o fôlego".

Por que esses vídeos são falsos?

O Fato ou Fake submeteu os conteúdos ao HiveModeration, uma ferramenta especializada em detecção de materiais produzidos com inteligência artificial. Todos os resultados apontaram o uso desse recurso de forma conclusiva.

No primeiro vídeo, o HiveModeration indicou que tanto as imagens quanto o áudio têm 99,9% de probabilidade de terem sido criados com inteligência artificial. Um indício claro de que o conteúdo é sintético aparece quando uma das crianças desliza pelo monte de neve sem deixar qualquer rastro, algo fisicamente improvável em condições reais.

Além disso, uma busca reversa no Google Lens revelou que o vídeo foi publicado originalmente em 18 de janeiro no Instagram de um criador de conteúdo especializado em IA. Nas hashtags da legenda, o próprio autor indicou que se tratava de material gerado artificialmente.

Análise detalhada dos vídeos

Na segunda gravação, a análise da ferramenta HiveModeration também indicou 99,9% de probabilidade de ser conteúdo gerado por IA. Uma busca reversa no Google Lens rastreou que esse vídeo foi publicado em 16 de janeiro no TikTok, por uma conta dedicada exclusivamente a conteúdos de inteligência artificial.

Para o terceiro vídeo, o HiveModeration detectou novamente 99,9% de chances de ser material produzido com IA. O Fato ou Fake também submeteu essa cena ao SynthID Detector, ferramenta do Google que identifica conteúdo gerado com a IA da própria empresa. O resultado da análise foi claro: "Feito com IA do Google (vídeo) – Synth ID identificado em todo ou parte do conteúdo carregado".

Essa tecnologia verifica uma marca d'água aplicada diretamente em vídeos, imagens, áudio ou texto fabricados sinteticamente. A técnica é imperceptível para humanos, mas completamente rastreável pelo sistema. No caso específico, a análise apontou esse indicador em quase todo o quadro do vídeo.

Uma busca reversa adicional no Google Lens identificou que esse conteúdo foi publicado originalmente por um designer gráfico de Ancara, na Turquia. Na legenda do post, publicado em 12 de janeiro, ele explica claramente que se tratava de uma simulação de como a cidade turca ficaria debaixo da neve, não tendo qualquer relação com a nevasca real em Kamchatka.

A importância da verificação de fatos

Este caso ilustra como conteúdos gerados por inteligência artificial podem se espalhar rapidamente pelas redes sociais, especialmente quando aproveitam eventos reais de grande impacto visual como a nevasca em Kamchatka. A combinação de ferramentas de detecção especializadas e técnicas de busca reversa de imagens se mostra essencial para identificar materiais falsos.

É fundamental que os usuários das redes sociais desenvolvam um olhar crítico em relação a conteúdos impressionantes que circulam durante eventos climáticos extremos, especialmente quando apresentam características visualmente perfeitas ou situações fisicamente improváveis.