A OpenAI, empresa responsável pelo desenvolvimento do ChatGPT, se manifestou publicamente sobre o caso do adolescente Adam Raine, de 16 anos, que cometeu suicídio após manter conversas prolongadas com a inteligência artificial. A empresa nega qualquer responsabilidade pela tragédia.
A tragédia e o processo judicial
Adam Raine faleceu no dia 11 de abril, depois de passar meses discutindo temas relacionados ao suicídio com o chatbot da OpenAI. Segundo informações do jornal britânico The Guardian, a família do jovem moveu uma ação judicial contra a empresa, acusando-a de homicídio culposo e violação das leis de segurança de produtos.
Os pais de Raine alegam que a tecnologia validou os pensamentos suicidas do filho, forneceu informações detalhadas sobre métodos letais de automutilação e chegou a instruir o adolescente sobre como roubar álcool do armário de bebidas dos pais e esconder evidências de uma tentativa fracassada de suicídio.
A defesa da OpenAI
Em resposta ao processo, a OpenAI emitiu um comunicado atribuindo o caso ao "uso indevido" da ferramenta. A empresa afirmou que "as lesões e os danos de Raine foram causados ou tiveram contribuição direta e imediata, total ou parcial, pelo uso indevido, não autorizado, não intencional, imprevisível e/ou inadequado do ChatGPT".
Na terça-feira, 25 de junho, a empresa também publicou uma nota em seu blog oficial, onde lamentou a morte do adolescente e destacou a importância de que "o tribunal tenha o quadro completo para avaliar plenamente as alegações feitas".
Medidas de segurança implementadas
Dados divulgados pela OpenAI em outubro revelaram uma estatística preocupante: mais de um milhão de usuários ativos conversam com o ChatGPT sobre suicídio em uma única semana. Diante desses números e após o caso de Adam Raine ganhar visibilidade, a empresa implementou melhorias significativas nos controles de segurança.
Entre as novas medidas estão:
- Ampliação dos controles parentais
- Maior acesso a linhas diretas de ajuda
- Redirecionamento automático de conversas delicadas para modelos mais seguros
- Lembretes para que usuários façam pausas durante sessões prolongadas
A OpenAI também se comprometeu a se defender no processo "de forma respeitosa, consciente da complexidade e das nuances de situações que envolvem pessoas e vidas reais". O caso levanta questões importantes sobre a responsabilidade das empresas de inteligência artificial pelo conteúdo gerado por suas ferramentas.