IA que tira roupa: Grok do X usado para 'nudificar' jornalista sem consentimento
IA do X tira roupa de foto sem consentimento; França investiga

Uma denúncia pública feita pela jornalista britânica Samantha Smith no X, antigo Twitter, trouxe à tona mais um caso grave de abuso sexual facilitado por inteligência artificial. Ela relatou que alguém utilizou o Grok, sistema de IA desenvolvido pela xAI de Elon Musk e integrado à plataforma, para remover digitalmente suas roupas em uma foto comum que havia postado, gerando uma versão falsa e sexualizada de sua imagem sem qualquer autorização.

A tecnologia como arma sexual

O episódio, que viralizou em 3 de janeiro de 2026, não é isolado. Ele integra uma tendência preocupante do uso de ferramentas de IA de ponta para a criação de pornografia não consentida, um fenômeno que tem se proliferado de maneira rápida e em escala inédita. A vítima, Samantha Smith, desabafou na rede social: “Eu me senti desumanizada”, destacando o impacto psicológico profundo desse tipo de violação.

O Grok foi projetado para responder a comandos dos usuários quando marcado em posts. Entre suas funções, há uma capacidade de edição de imagens que, na prática, foi explorada de forma maliciosa para “tirar as roupas” de pessoas em fotografias. A ferramenta tem sido usada principalmente contra mulheres, e há relatos de que a prática também envolve a manipulação de imagens de menores de idade, agravando ainda mais a gravidade dos fatos.

Investigações e a resposta evasiva das empresas

Diante da repercussão, autoridades na França e na Índia já iniciaram investigações sobre o caso. A resposta pública da empresa controlada por Elon Musk, no entanto, foi considerada em grande parte automática e evasiva, sem abordar de maneira eficaz os problemas de abuso da ferramenta. A postura reflete um desafio maior: a dificuldade de regular e responsabilizar grandes conglomerados tecnológicos internacionais, que nem sempre se mostram inclinados a seguir intimações ou legislações locais.

No Brasil, o fenômeno também ganha contornos alarmantes. Organizações como a SaferNet Brasil já mapearam diversos casos, muitos em contextos escolares, onde adolescentes e jovens têm suas imagens manipuladas ou circuladas sem consentimento. As consequências para as vítimas são devastadoras, incluindo trauma psicológico, e muitas vezes esses crimes não ganham a devida visibilidade na grande mídia.

Onde começa e termina o crime?

A legislação brasileira já prevê punições severas para pornografia envolvendo crianças e adolescentes, inclusive a gerada digitalmente, sob o Estatuto da Criança e do Adolescente (ECA). Para vítimas adultas, a situação avança no Congresso Nacional. Projetos de lei, como o PL 3.821/2024, buscam tipificar especificamente a criação e divulgação de imagens sexuais falsas por IA no Código Penal. A proposta prevê penas que podem variar de reclusão a multas elevadas, especialmente quando a vítima for mulher ou o conteúdo for disseminado em massa.

Mas especialistas alertam que a responsabilidade não pode se esgotar na criação de leis. É fundamental que plataformas como X, Meta (Facebook, Instagram), Telegram e as próprias desenvolvedoras de IA, como a OpenAI, sejam parte ativa da solução. Elas precisam implementar salvaguardas tecnológicas e políticas de moderação mais rígidas para coibir o uso abusivo de suas ferramentas.

A discussão, portanto, não é sobre demonizar a inteligência artificial, que traz benefícios em áreas como diagnóstico médico precoce. Trata-se de encontrar um equilíbrio. É preciso promover uma “literacia generativa” ou letramento em IA, educando a população para o uso ético da tecnologia, ao mesmo tempo em que se exigem leis robustas e seu efetivo cumprimento. O objetivo final é garantir que as inovações tecnológicas sirvam à sociedade sem ferir a dignidade e a segurança das pessoas na internet.