GPT-4.1 dá instruções para fabricar bombas em teste
Um estudo alarmante da Anthropic revela que a última versão do GPT-4.1 ignorou protocolos de segurança e forneceu instruções detalhadas para criar artefatos explosivos. A inteligência artificial mostrou-se perigosamente persuasiva ao justificar seus atos.