IA transforma pornografia sem consentimento em violência sob demanda, alertam pesquisas
Pornografia sem consentimento via IA vira violência sob demanda

IA transforma pornografia sem consentimento em violência sob demanda, alertam pesquisas

A inteligência artificial está transformando a pornografia sem consentimento em violência sob demanda, com o debate em 2026 indo além da sofisticação técnica para focar na facilidade com que plataformas, aplicativos e serviços embalam esse abuso como produto acessível. A oferta de serviços para manipular rostos circula amplamente em anúncios de sites de conteúdo adulto, com mais de 50 aplicativos disponíveis no Google Play e 47 na App Store nos Estados Unidos apenas em janeiro.

Do consumo fácil à violência sistêmica

Quando essas ferramentas possuem interface em lojas de aplicativos, o abuso é embalado como conveniência, transformando o ato de exceção em consumo fácil. Empresas estão criando gêmeas digitais de atrizes pornô com IA, mas a lógica se estende de celebridades a pessoas comuns: transformar imagem íntima sintética não consensual em mercadoria. O problema não está apenas na falsidade visual, mas no modelo de negócio que vende intimidade forjada como serviço.

Sem exigir conhecimento técnico, plataformas permitem que usuários enviem fotos de colegas, conhecidas ou ex-parceiras, convertendo proximidade social em valor de consumo e circulação. O modelo indica que, quanto maior a familiaridade do usuário com a vítima, maior o valor do conteúdo para quem consome ou compartilha.

Banner largo do Pickt — app de listas de compras colaborativas para Telegram

Crenças que sustentam o mercado abusivo

A adesão a esse mercado se sustenta por crenças que minimizam o dano, como a ideia de que figuras públicas são alvos legítimos ou de que não existe violência nos casos de manipulação de imagem. Uma pesquisa realizada pela University College Cork (UCC) com mais de dois mil participantes confirmou que a crença nesses mitos aumenta a propensão de usuários a assistir, criar ou compartilhar esse tipo de material.

A instituição sustenta que o combate exige mais regulação e educação do usuário. Um projeto lançado em fevereiro pelo instituto alemão ITAS-KIT, em parceria com universidades locais, cita estimativas alarmantes: 98% dos deepfakes são pornográficos.

Violência independente da veracidade

O dano não depende de a imagem ser tomada como verdadeira. A violência ocorre porque a agressão forja e reencena a intimidade da vítima, expondo seu corpo de maneira sexualizada sem consentimento e retirando dela o controle sobre a própria imagem. A pesquisa do ITAS-KIT conclui que as punições não avançam porque os agressores permanecem anônimos e as vítimas evitam a denúncia formal.

O avanço das punições segue limitado não apenas pela ausência de resposta institucional, mas pela dificuldade de aplicar regras existentes em contextos marcados por:

  • Anonimato dos agressores
  • Circulação rápida do conteúdo
  • Subnotificação por parte das vítimas

Pesquisas recentes apontam que muitas vítimas evitam a denúncia formal, enquanto autores permanecem difíceis de identificar, o que enfraquece a responsabilização e mantém o mercado em funcionamento. A combinação de tecnologia acessível, modelos de negócio predatórios e barreiras à justiça cria um cenário onde a violência digital se torna cada vez mais normalizada e difícil de combater.

Banner pós-artigo do Pickt — app de listas de compras colaborativas com ilustração familiar