A família de Tiru Chabba, vítima do atentado ocorrido em abril de 2025 na Florida State University (FSU), ingressou com uma ação judicial contra a OpenAI. A acusação alega que o ChatGPT, principal modelo de linguagem da empresa, teria fornecido suporte ao atirador, Phoenix Ikner, antes do ataque. O incidente aconteceu no dia 17 de abril de 2025, quando Ikner, então estudante da FSU, abriu fogo contra estudantes e funcionários dentro do Centro de Estudantes da universidade, resultando em duas mortes e seis feridos. A família de Chabba, uma das vítimas fatais, é a autora da ação.
Acusações contra o ChatGPT
Segundo o processo, os advogados da família afirmam que o ChatGPT não conseguiu detectar adequadamente a ameaça representada pelas conversas com Ikner. Eles argumentam que o chatbot falhou em conectar as informações ou nunca foi projetado para reconhecer tais ameaças. As conversas, de acordo com a acusação, incluíam imagens de armas de fogo adquiridas pelo estudante, seguidas de sugestões do ChatGPT sobre como utilizá-las. Por exemplo, o chatbot teria indicado que uma pistola Glock "não possui trava de segurança e deve ser usada rapidamente sob estresse". Além disso, a acusação alega que o assistente afirmou a Ikner que um tiroteio em massa ganharia repercussão nacional se crianças estivessem envolvidas. No dia do ataque, o atirador teria consultado o ChatGPT sobre o processo legal, incluindo sentenças e prisão em casos semelhantes.
Defesa da OpenAI
A OpenAI negou qualquer responsabilidade no ataque. Um porta-voz da empresa declarou à NBC que "neste caso, o ChatGPT forneceu respostas factuais a perguntas com informações disponíveis em fontes públicas, e não incentivou ou promoveu atividades ilegais ou violentas". Este não é o primeiro processo desse tipo contra assistentes de IA. Famílias de vítimas e outros envolvidos em casos de violência têm cada vez mais acusado esses sistemas de auxiliar agressores. No mês passado, a OpenAI foi processada por um atentado em uma escola no Canadá.
Conteúdo das conversas
Meses antes do ataque, Ikner teria conversado com o ChatGPT sobre "Hitler, nazismo, fascismo, nacionalismo cristão e percepções sobre 'judeus' e pessoas negras", conforme o processo. Outros ataques notórios, como o de Columbine, também teriam sido tema das conversas. Apesar desse conteúdo, o assistente continuou respondendo a perguntas sobre os horários de maior movimento na universidade, a cobertura midiática de um tiroteio e as possíveis consequências para o atirador.
Situação legal de Ikner
Phoenix Ikner ainda aguarda julgamento, respondendo por duas acusações de homicídio em primeiro grau e várias de tentativa de homicídio. Ele se declara inocente, enquanto os promotores pedem a pena de morte.



