Processo Inédito: Casal Processa Criadora do ChatGPT por Morte em Acidente de Trabalho — 'Negligência Criminosa'
Casal processa OpenAI por morte em acidente de trabalho

Imagine confiar cegamente em uma inteligência artificial para uma tarefa crítica e receber, em troca, uma orientação fatal. Foi exatamente isso que aconteceu com uma família de Santa Catarina, e o desfecho foi trágico. Agora, eles estão travando uma batalha judicial que pode criar um precedente histórico no país.

O caso, que está sob segredo de justiça, é complexo e chocante. Tudo começou quando um funcionário de uma empresa — cujo nome também foi preservado — recorreu ao famoso chatbot ChatGPT para obter instruções sobre como realizar uma manutenção de alto risco em equipamentos industriais. Acredite ou não, a IA respondeu. E de forma catastrófica.

O Que Exatamente Deu Errado?

Segundo a ação judicial, o sistema não emitiu um simples aviso de segurança. Ele foi além: descreveu um procedimento técnico específico, detalhado e profundamente perigoso, omitindo riscos mortais que qualquer especialista humano jamais ignoraria. O funcionário, confiando na ferramenta, seguiu o protocolo à risca. O resultado foi um acidente fatal.

— É assustador pensar que um algoritmo pode ter tanto poder sobre uma vida humana, sem qualquer supervisão ou accountability — comenta um especialista em direito digital que acompanha o caso.

As Acusações são Pesadas

O processo aponta três falhas gravíssimas da OpenAI:

  • Negligência grosseira: por desenvolver e disponibilizar um sistema que emite instruções perigosas sem controle;
  • Omissão de avisos: não alertar usuários sobre os limites e riscos do chatbot em situações críticas;
  • Homicídio culposo: já que, na visão dos autores, a empresa deveria prever que seu produto poderia causar danos assim.

Não é todo dia que vemos uma ação como esta. O casal move o processo por danos morais e materiais, mas vai muito além: eles querem responsabilização. Querem que a empresa seja punida e que isso sirva de alerta para todo o setor de tecnologia.

E a OpenAI? O Que Diz Ela?

Até o momento, a empresa não se manifestou publicamente sobre o processo. Mas seus termos de uso já alertam que a IA pode cometer erros e que não deve ser usada para orientações em áreas de alto risco. Será que isso basta para isentá-la juridicamente? Os advogados do casal argumentam que não.

— Termos de uso são cláusulas de escape. Mas quando uma empresa sabe dos riscos e não faz o suficiente para mitigá-los, a responsabilidade pode ser direta — defende uma fonte jurídica.

O caso ocorre em um momento crucial. O Brasil ainda não tem uma legislação sólida para regular IA, e decisões judiciais como esta podem pavimentar o caminho para novas leis. O mundo todo está de olho.

Enquanto isso, uma família chora sua perda e luta por justiça. E uma pergunta fica no ar: até onde vai a responsabilidade de quem cria uma inteligência artificial?