O CEO da OpenAI, Sam Altman, pediu desculpas à cidade canadense de Tumbler Ridge após um ataque perpetrado por uma ex-usuária do ChatGPT que resultou na morte de oito pessoas em fevereiro. Em uma carta enviada ao primeiro-ministro da província da Colúmbia Britânica, David Eby, Altman expressou profundo arrependimento por a empresa não ter alertado as autoridades policiais sobre conteúdos preocupantes da usuária na plataforma.
Pedido de desculpas considerado insuficiente
O primeiro-ministro David Eby classificou o pedido de desculpas como "necessário, e ainda assim grosseiramente insuficiente". A declaração reflete a insatisfação das autoridades com a postura da OpenAI diante da tragédia.
Detalhes do ataque
Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa, antes de se dirigir a uma escola secundária local e abrir fogo. Ela matou cinco crianças e um professor e, em seguida, tirou a própria vida. O ataque chocou a comunidade de Tumbler Ridge e levantou questões sobre a responsabilidade de empresas de tecnologia na prevenção de violência.
Banimento da usuária oito meses antes
Após o ataque, a OpenAI informou que havia identificado a conta da suspeita por meio de seus sistemas de detecção de abuso e a banido do ChatGPT em junho, oito meses antes da tragédia. A empresa, no entanto, não reportou a conta à polícia canadense na época, argumentando que a atividade não era grave o suficiente para justificar um encaminhamento às autoridades.
Declarações de Sam Altman
Na carta, Altman afirmou: "Estou profundamente arrependido por não termos alertado as autoridades policiais sobre a conta que foi banida em junho. Embora eu saiba que palavras nunca são suficientes, acredito que um pedido de desculpas é necessário para reconhecer o dano e a perda irreversível que sua comunidade sofreu." Ele justificou o atraso no pedido de desculpas, mais de dois meses após a tragédia, alegando que queria respeitar o luto dos moradores de Tumbler Ridge.
Mecanismos de denúncia do ChatGPT
A OpenAI afirma que utiliza sistemas automatizados de moderação que analisam conteúdos em tempo real. Contas podem ser restringidas ou banidas por violações como exploração sexual, apoio à automutilação e ao suicídio, e promoção de violência. Em casos graves, os sistemas sinalizam comportamentos de alto risco para revisão humana. Se uma ameaça crível for identificada, a empresa pode compartilhar dados relevantes com as autoridades policiais.
Reação das autoridades e ações judiciais
Após o ataque, autoridades canadenses convocaram a equipe de segurança da OpenAI e ameaçaram responder com ações regulatórias caso mudanças não fossem implementadas. A empresa afirmou que iria reforçar suas medidas de segurança e que criou um canal de contato direto com a polícia. Altman disse que a OpenAI está comprometida em encontrar formas de evitar tragédias semelhantes: "Daqui para frente, nosso foco continuará sendo trabalhar com todos os níveis de governo para ajudar a garantir que algo assim nunca aconteça novamente."
Ação judicial por negligência
A família de uma menina que ficou gravemente ferida no tiroteio entrou com uma ação judicial por negligência contra a OpenAI. Eles alegam que a empresa sabia que a atiradora planejava um "evento com mortes em massa", mas não adotou nenhuma medida para impedi-lo.



