Reino Unido investiga IA Grok de Elon Musk por gerar imagens sexuais não consensuais
Reino Unido investiga IA Grok de Elon Musk por imagens sexuais

Reino Unido inicia investigação formal sobre IA Grok de Elon Musk por conteúdo sexualizado

A autoridade britânica de proteção de dados, o Information Commissioner’s Office (ICO), anunciou nesta terça-feira a abertura de uma investigação formal sobre o chatbot Grok, desenvolvido pela empresa xAI, de Elon Musk. A apuração tem como foco o processamento de dados pessoais e o potencial da ferramenta de produzir imagens e vídeos sexualizados prejudiciais, conforme divulgado em comunicado oficial.

Alvo da investigação e preocupações com conteúdo não consensual

A investigação tem como alvo a xAI e a X Internet Unlimited Company, controladora de dados do X na União Europeia ou no Espaço Econômico Europeu, com sede em Dublin. A decisão foi tomada após relatos de que o Grok teria sido utilizado para gerar imagens sexuais não consensuais de pessoas, incluindo crianças, levantando sérias questões legais e éticas.

Em sua nota, o ICO destacou que "a criação e a circulação desse tipo de conteúdo, segundo os relatos, levantam sérias preocupações à luz da legislação britânica de proteção de dados e representam risco de danos significativos ao público". Essa afirmação reflete a crescente apreensão global sobre os impactos negativos de tecnologias de inteligência artificial mal regulamentadas.

Contexto global e outras investigações em andamento

Governos e autoridades reguladoras em todo o mundo vêm intensificando a repressão a conteúdos sexualmente explícitos gerados pelo Grok, indicando um movimento coordenado para enfrentar os riscos associados a essas ferramentas. Separadamente, o órgão regulador da mídia do Reino Unido, o Ofcom, informou que continuará sua própria investigação sobre o X, ampliando o escrutínio sobre as práticas da empresa de Elon Musk.

Esse caso ilustra os desafios emergentes na interseção entre inovação tecnológica e proteção de direitos individuais, especialmente em um cenário onde a inteligência artificial pode ser usada para fins prejudiciais. A investigação britânica pode estabelecer precedentes importantes para a regulação de IAs no futuro, influenciando políticas em outros países.