Reino Unido inicia investigação formal sobre IA Grok de Elon Musk por conteúdo sexualizado
A autoridade britânica de proteção de dados, o Information Commissioner’s Office (ICO), anunciou nesta terça-feira a abertura de uma investigação formal sobre o chatbot Grok, desenvolvido pela empresa xAI, de Elon Musk. A apuração tem como foco o processamento de dados pessoais e o potencial da ferramenta de produzir imagens e vídeos sexualizados prejudiciais, conforme divulgado em comunicado oficial.
Alvo da investigação e preocupações com conteúdo não consensual
A investigação tem como alvo a xAI e a X Internet Unlimited Company, controladora de dados do X na União Europeia ou no Espaço Econômico Europeu, com sede em Dublin. A decisão foi tomada após relatos de que o Grok teria sido utilizado para gerar imagens sexuais não consensuais de pessoas, incluindo crianças, levantando sérias questões legais e éticas.
Em sua nota, o ICO destacou que "a criação e a circulação desse tipo de conteúdo, segundo os relatos, levantam sérias preocupações à luz da legislação britânica de proteção de dados e representam risco de danos significativos ao público". Essa afirmação reflete a crescente apreensão global sobre os impactos negativos de tecnologias de inteligência artificial mal regulamentadas.
Contexto global e outras investigações em andamento
Governos e autoridades reguladoras em todo o mundo vêm intensificando a repressão a conteúdos sexualmente explícitos gerados pelo Grok, indicando um movimento coordenado para enfrentar os riscos associados a essas ferramentas. Separadamente, o órgão regulador da mídia do Reino Unido, o Ofcom, informou que continuará sua própria investigação sobre o X, ampliando o escrutínio sobre as práticas da empresa de Elon Musk.
Esse caso ilustra os desafios emergentes na interseção entre inovação tecnológica e proteção de direitos individuais, especialmente em um cenário onde a inteligência artificial pode ser usada para fins prejudiciais. A investigação britânica pode estabelecer precedentes importantes para a regulação de IAs no futuro, influenciando políticas em outros países.