Unicef alerta: mais de 1 milhão de crianças vítimas de deepfakes sexuais em 2025
Deepfakes sexuais atingem 1,2 milhão de crianças, diz Unicef

Unicef denuncia: mais de 1 milhão de crianças vítimas de deepfakes sexuais em 2025

Um relatório alarmante do Fundo das Nações Unidas para a Infância, o Unicef, divulgado na quarta-feira, 4 de fevereiro de 2026, expôs uma realidade perturbadora: 1,2 milhão de crianças em 11 países diferentes foram alvo de deepfakes sexualmente explícitos em 2025. O estudo, que inclui o Brasil entre as nações analisadas, revela que a tecnologia de inteligência artificial está sendo usada de forma abusiva e criminosa contra menores.

Técnica de IA cria imagens falsas extremamente realistas

Os deepfakes são produzidos por meio de técnicas avançadas de inteligência artificial que geram imagens, vídeos e sons falsos com alto grau de realismo. Essas ferramentas simulam vozes e rostos de pessoas reais, fazendo parecer que alguém disse ou fez algo que nunca ocorreu na vida real. Uma das práticas mais preocupantes identificadas pelo Unicef é a chamada nudificação de crianças, onde a IA é empregada para remover ou alterar roupas em fotografias autênticas, criando assim imagens falsas de nudez ou com conotações sexuais explícitas.

O Unicef foi enfático em seu posicionamento: Imagens sexualizadas de crianças geradas ou manipuladas por ferramentas de IA constituem material de abuso sexual infantil. A agência das Nações Unidas afirmou em comunicado que o abuso por deepfake é, de fato, abuso, e não há nada de fictício no dano profundo que causa às vítimas e suas famílias.

Brasil entre os países mais afetados pelo fenômeno

O levantamento abrangeu onze nações, sendo elas:

  • Brasil
  • México
  • Colômbia
  • República Dominicana
  • Marrocos
  • Macedônia do Norte
  • Armênia
  • Montenegro
  • Paquistão
  • Sérvia
  • Tunísia

De acordo com os dados, em média, uma em cada 25 crianças nesses países foi impactada por esse tipo de abuso digital. A pesquisa entrevistou aproximadamente 1.000 jovens usuários de internet, com idades entre 12 e 17 anos, além de outros 1.000 pais, mães ou cuidadores em cada nação participante.

María José Ravalli, chefe regional de advocacia e comunicação do Unicef para a América Latina e o Caribe, destacou que as próprias crianças demonstram consciência dos riscos. Em alguns locais, até dois terços dos entrevistados expressaram medo de que a inteligência artificial seja utilizada para falsificar imagens ou vídeos seus com conteúdo sexual.

Integração em redes sociais agrava disseminação do material

O relatório também alertou que o problema se intensifica quando as ferramentas de IA são integradas diretamente às plataformas de redes sociais, permitindo uma propagação rápida e massiva do material abusivo. Diante desse cenário crítico, o Unicef fez um apelo urgente aos governos para que criminalizem explicitamente a criação de imagens de abuso sexual infantil geradas por IA.

Além disso, a agência cobrou que os desenvolvedores de tecnologia adotem medidas de segurança desde a fase de concepção dos modelos de inteligência artificial, implementando barreiras de proteção robustas para prevenir o uso indevido dessas ferramentas. O Unicef ressaltou que, mesmo sem uma vítima identificável imediatamente, o material de abuso sexual infantil produzido por IA normaliza a exploração sexual de menores, alimenta a demanda por conteúdo abusivo e apresenta desafios significativos para as autoridades na identificação e proteção das crianças que necessitam de ajuda.

Este relatório serve como um alerta global sobre os perigos emergentes da tecnologia quando mal utilizada, exigindo ações coordenadas e imediatas para salvaguardar a infância em um mundo cada vez mais digital.