Unicef denuncia: mais de 1 milhão de crianças vítimas de deepfakes sexuais em 2025
Um relatório alarmante do Fundo das Nações Unidas para a Infância, o Unicef, divulgado na quarta-feira, 4 de fevereiro de 2026, expôs uma realidade perturbadora: 1,2 milhão de crianças em 11 países diferentes foram alvo de deepfakes sexualmente explícitos em 2025. O estudo, que inclui o Brasil entre as nações analisadas, revela que a tecnologia de inteligência artificial está sendo usada de forma abusiva e criminosa contra menores.
Técnica de IA cria imagens falsas extremamente realistas
Os deepfakes são produzidos por meio de técnicas avançadas de inteligência artificial que geram imagens, vídeos e sons falsos com alto grau de realismo. Essas ferramentas simulam vozes e rostos de pessoas reais, fazendo parecer que alguém disse ou fez algo que nunca ocorreu na vida real. Uma das práticas mais preocupantes identificadas pelo Unicef é a chamada nudificação de crianças, onde a IA é empregada para remover ou alterar roupas em fotografias autênticas, criando assim imagens falsas de nudez ou com conotações sexuais explícitas.
O Unicef foi enfático em seu posicionamento: Imagens sexualizadas de crianças geradas ou manipuladas por ferramentas de IA constituem material de abuso sexual infantil. A agência das Nações Unidas afirmou em comunicado que o abuso por deepfake é, de fato, abuso, e não há nada de fictício no dano profundo que causa às vítimas e suas famílias.
Brasil entre os países mais afetados pelo fenômeno
O levantamento abrangeu onze nações, sendo elas:
- Brasil
- México
- Colômbia
- República Dominicana
- Marrocos
- Macedônia do Norte
- Armênia
- Montenegro
- Paquistão
- Sérvia
- Tunísia
De acordo com os dados, em média, uma em cada 25 crianças nesses países foi impactada por esse tipo de abuso digital. A pesquisa entrevistou aproximadamente 1.000 jovens usuários de internet, com idades entre 12 e 17 anos, além de outros 1.000 pais, mães ou cuidadores em cada nação participante.
María José Ravalli, chefe regional de advocacia e comunicação do Unicef para a América Latina e o Caribe, destacou que as próprias crianças demonstram consciência dos riscos. Em alguns locais, até dois terços dos entrevistados expressaram medo de que a inteligência artificial seja utilizada para falsificar imagens ou vídeos seus com conteúdo sexual.
Integração em redes sociais agrava disseminação do material
O relatório também alertou que o problema se intensifica quando as ferramentas de IA são integradas diretamente às plataformas de redes sociais, permitindo uma propagação rápida e massiva do material abusivo. Diante desse cenário crítico, o Unicef fez um apelo urgente aos governos para que criminalizem explicitamente a criação de imagens de abuso sexual infantil geradas por IA.
Além disso, a agência cobrou que os desenvolvedores de tecnologia adotem medidas de segurança desde a fase de concepção dos modelos de inteligência artificial, implementando barreiras de proteção robustas para prevenir o uso indevido dessas ferramentas. O Unicef ressaltou que, mesmo sem uma vítima identificável imediatamente, o material de abuso sexual infantil produzido por IA normaliza a exploração sexual de menores, alimenta a demanda por conteúdo abusivo e apresenta desafios significativos para as autoridades na identificação e proteção das crianças que necessitam de ajuda.
Este relatório serve como um alerta global sobre os perigos emergentes da tecnologia quando mal utilizada, exigindo ações coordenadas e imediatas para salvaguardar a infância em um mundo cada vez mais digital.