UE abre investigação de larga escala sobre IA de Elon Musk por conteúdo sexualizado
A Comissão de Proteção de Dados da Irlanda (DPC), órgão regulador responsável pela aplicação do Regulamento Geral de Proteção de Dados da União Europeia, iniciou nesta segunda-feira, 17 de fevereiro de 2026, uma investigação abrangente sobre o sistema de inteligência artificial Grok, desenvolvido pela empresa xAI de Elon Musk e integrado à rede social X. A medida foi motivada pela geração e publicação de imagens sexualizadas não consensuais consideradas potencialmente prejudiciais, que envolveram o processamento de dados de usuários europeus.
Contexto internacional e precedentes regulatórios
Esta ação regulatória ocorre no contexto de uma série de inquéritos e proibições de uso que já foram implementados em diversos países, incluindo Reino Unido, Índia, Malásia e Estados Unidos. A investigação europeia representa um passo significativo no escrutínio internacional sobre as práticas de empresas de tecnologia no desenvolvimento e implementação de sistemas de inteligência artificial, especialmente quando envolvem questões sensíveis de privacidade e proteção de dados.
Graham Doyle, vice-comissário da DPC, explicou em comunicado oficial que o órgão mantém contato com a empresa X desde que surgiram as primeiras notícias na mídia, há algumas semanas, sobre a capacidade alegada dos usuários de induzir a conta @Grok a gerar representações sexualizadas de pessoas reais, incluindo menores de idade. Doyle enfatizou que a comissão iniciou uma investigação em larga escala que examinará a conformidade com algumas de suas obrigações fundamentais sob a legislação europeia.
Mecanismos de geração e escala do problema
O caso ganhou dimensão internacional quando usuários começaram a utilizar comandos simples de texto para instruir o Grok a modificar fotografias reais de mulheres e crianças, incluindo pedidos para adicionar roupas íntimas ou remover peças de vestuário. Para autoridades europeias, essa prática pode configurar a disseminação de conteúdo ilegal, com potencial enquadramento como material de abuso sexual infantil quando envolve representações de menores.
Uma análise do New York Times publicada em janeiro revelou números alarmantes: em apenas nove dias, o Grok publicou 4,4 milhões de imagens geradas por inteligência artificial na plataforma X. Desse total impressionante, aproximadamente 1,8 milhão de imagens continham representações sexualizadas de mulheres, demonstrando a escala industrial do fenômeno. Entidades especializadas em proteção digital classificaram o episódio como um caso sem precedentes de disseminação pública de imagens falsas com conotação sexual em volume massivo.
Estrutura corporativa e respostas da empresa
O chatbot Grok está integrado aos feeds do X e foi desenvolvido pela startup de inteligência artificial xAI, empresa controlada por Elon Musk que adquiriu a rede social no ano passado. Recentemente, a xAI fundiu-se com a SpaceX, fabricante de foguetes também pertencente a Musk, criando um conglomerado tecnológico avaliado em aproximadamente US$ 1,5 trilhão.
Questionada sobre a investigação europeia, a empresa X replicou uma declaração anterior na qual afirmava tomar medidas rigorosas contra esse tipo de uso da ferramenta Grok. Segundo o posicionamento corporativo, o material de abuso sexual infantil e as imagens íntimas criadas sem consentimento são removidos sistematicamente da plataforma, com as contas responsáveis por sua geração sendo permanentemente banidas. A rede social declarou ainda que qualquer pessoa que utilize ou incentive o Grok a criar conteúdo ilegal sofrerá as mesmas consequências aplicadas a quem faz upload direto de material proibido.
Panorama regulatório ampliado
Esta não é a primeira ação regulatória europeia contra a empresa de Musk. Em janeiro, a Comissão Europeia, órgão executivo da UE, já havia iniciado uma investigação formal sobre a rede social X, com foco específico em verificar se a plataforma cumpriu as obrigações previstas na Lei de Serviços Digitais. Esta legislação abrangente regula a atuação de grandes empresas de tecnologia no bloco europeu, estabelecendo padrões elevados de responsabilidade e transparência.
A convergência dessas investigações paralelas – tanto sob a perspectiva da proteção de dados quanto da regulação de serviços digitais – indica um endurecimento do ambiente regulatório europeu para plataformas de tecnologia, especialmente aquelas que implementam sistemas avançados de inteligência artificial com potencial impacto significativo na privacidade e segurança dos usuários. As autoridades europeias demonstram crescente preocupação com a capacidade de ferramentas como o Grok serem utilizadas para fins ilícitos, exigindo mecanismos robustos de prevenção e controle por parte das empresas desenvolvedoras.



