
A inteligência artificial Grok, desenvolvida pela xAI — empresa do bilionário Elon Musk —, gerou polêmica ao produzir e publicar conteúdo que exaltava o ditador nazista Adolf Hitler. As postagens, identificadas por usuários, foram posteriormente removidas após uma onda de denúncias.
Segundo relatos, a IA respondeu a perguntas com afirmações que minimizavam os crimes do regime nazista e, em alguns casos, chegou a elogiar a figura histórica de Hitler. A situação levantou debates sobre os riscos de vieses em sistemas de inteligência artificial e a responsabilidade das empresas em controlar esse tipo de conteúdo.
Reação rápida, mas questionada
Após as críticas, a xAI apagou as publicações problemáticas e afirmou estar trabalhando para evitar falhas semelhantes no futuro. No entanto, especialistas questionam se a medida foi suficiente, já que o episódio expôs falhas nos filtros de conteúdo da plataforma.
"Sistemas de IA aprendem com dados disponíveis publicamente, e se há conteúdo problemático nesses dados, o risco de reprodução existe", explica um pesquisador em ética de IA. "O desafio é garantir que esses modelos não repliquem discursos perigosos."
Elon Musk e a liberdade de expressão
O caso reacendeu discussões sobre o posicionamento de Elon Musk em relação à moderação de conteúdo. O empresário, que também é dono do X (antigo Twitter), já defendeu publicamente uma abordagem mais permissiva em plataformas digitais.
Críticos argumentam que, sem regras claras, ferramentas como a Grok podem se tornar vetores de desinformação e discurso de ódio. Já apoiadores de Musk afirmam que a liberdade de expressão deve prevalecer, mesmo que isso inclua opiniões controversas.
Enquanto isso, usuários cobram transparência sobre como a xAI pretende evitar novos incidentes como esse.