ChatGPT falha em mais da metade das emergências médicas, aponta estudo internacional
Uma pesquisa realizada por médicos e cientistas da Escola de Medicina Icahn no Monte Sinai, em Nova York, revelou dados alarmantes sobre o uso de inteligência artificial na saúde. O estudo, publicado na prestigiada revista Nature, avaliou o ChatGPT Health – ferramenta lançada pela OpenAI para orientação médica direta ao público – e descobriu que o sistema recomenda um nível de cuidado inferior ao necessário em mais da metade das situações de emergência real.
Falhas graves em casos críticos
Os resultados mostraram que em 51,6% das emergências médicas, a ferramenta sugeriu que pacientes em estado crítico aguardassem entre 24 e 48 horas para buscar atendimento, em vez de irem imediatamente ao pronto-socorro. Ashwin Ramaswamy, pesquisador responsável pelo estudo, explicou ao g1 que o maior problema está justamente nos casos mais graves: "O ChatGPT Health erra de forma seletiva. Ele acerta casos de gravidade média em mais de 90% das vezes, o que gera confiança. Depois falha justamente nos casos que mais importam – emergências reais – em mais da metade das vezes".
Viés racial identificado nas recomendações
O estudo identificou um preocupante viés racial nas respostas da inteligência artificial. Em um exemplo citado pelos pesquisadores, o sistema recomendou "monitorar em casa" para um homem negro em cetoacidose diabética – complicação grave do diabetes – mas sugeriu "ir ao pronto-socorro agora" para um homem branco com exatamente a mesma apresentação clínica. "Em um país como o Brasil, onde desigualdades raciais na saúde já são uma preocupação séria, esse tipo de inconsistência precisa ser analisado com atenção", alerta Ashwin Ramaswamy.
Influência de comentários familiares
A pesquisa também descobriu que comentários de familiares ou amigos podem influenciar significativamente as recomendações da IA. Quando os pesquisadores incluíram frases como "acho que você está bem" ou "provavelmente não é nada", o ChatGPT Health se tornou quase 12 vezes mais propenso a recomendar um nível menor de atendimento. Segundo os especialistas, esse comportamento reflete o que é conhecido como viés de ancoragem, um problema também presente no raciocínio clínico humano, mas que médicos são treinados para reconhecer e resistir.
Metodologia rigorosa do estudo
A pesquisa utilizou um experimento fatorial estruturado, criando 60 casos clínicos fictícios baseados em diretrizes médicas reais de 58 sociedades profissionais. Esses casos cobriram 21 áreas da medicina e foram divididos em dois tipos:
- Apresentações apenas com sintomas relatados pelo paciente
- Versões que incluíam dados objetivos como resultados de exames laboratoriais e sinais vitais
Os pesquisadores criaram 16 variações para cada caso, alterando propositalmente fatores não clínicos como raça, gênero, comentários de familiares e barreiras de acesso à saúde para observar se a IA mudaria de opinião.
Quando mais dados não ajudam
Curiosamente, a inclusão de exames e outros dados médicos objetivos – que em teoria deveriam melhorar a precisão – pode criar uma falsa sensação de segurança. A IA parece se "tranquilizar" ao encontrar alguns valores normais em meio a um quadro grave, fixando-se em resultados isoladamente positivos e ignorando o quadro clínico geral que indicaria uma emergência.
Necessidade de regulamentação
Antônio Carlos, coordenador da Comissão de Saúde Digital da Associação Médica Brasileira (AMB), destaca que o Brasil já possui algumas bases regulatórias aplicáveis, como a Lei Geral de Proteção de Dados (LGPD), mas é preciso avançar em critérios claros para nível de risco. "Informação geral é uma coisa; triagem, diagnóstico e apoio à decisão exigem validação, monitoramento, transparência e governança", afirma.
Quando a IA pode realmente ajudar
Os pesquisadores ressaltam que ferramentas de inteligência artificial podem ser úteis para:
- Entender melhor um diagnóstico já estabelecido
- Pesquisar efeitos colaterais de medicamentos
- Esclarecer dúvidas simples sobre saúde
A recomendação unânime é que essas ferramentas sejam usadas como complemento ao médico, nunca como substituto. "A IA não faz exame físico, não mede sinais vitais e não responde legalmente pelo cuidado. Por isso, não pode assumir o papel do médico", conclui o coordenador da AMB.
Busque ajuda profissional
Em caso de sintomas graves ou emergências médicas, procure sempre atendimento profissional. O Ministério da Saúde disponibiliza diversos canais de ajuda, incluindo CAPS, Unidades Básicas de Saúde, UPA 24H, SAMU 192 e pronto-socorros. Para apoio emocional, o Centro de Valorização da Vida (CVV) oferece atendimento gratuito 24 horas por dia através do número 188.



