ChatGPT falha em mais da metade das emergências médicas, aponta estudo
ChatGPT falha em emergências médicas, mostra pesquisa

ChatGPT falha em mais da metade das emergências médicas, aponta estudo internacional

Uma pesquisa realizada por médicos e cientistas da Escola de Medicina Icahn no Monte Sinai, em Nova York, revelou dados alarmantes sobre o uso de inteligência artificial na saúde. O estudo, publicado na prestigiada revista Nature, avaliou o ChatGPT Health – ferramenta lançada pela OpenAI para orientação médica direta ao público – e descobriu que o sistema recomenda um nível de cuidado inferior ao necessário em mais da metade das situações de emergência real.

Falhas graves em casos críticos

Os resultados mostraram que em 51,6% das emergências médicas, a ferramenta sugeriu que pacientes em estado crítico aguardassem entre 24 e 48 horas para buscar atendimento, em vez de irem imediatamente ao pronto-socorro. Ashwin Ramaswamy, pesquisador responsável pelo estudo, explicou ao g1 que o maior problema está justamente nos casos mais graves: "O ChatGPT Health erra de forma seletiva. Ele acerta casos de gravidade média em mais de 90% das vezes, o que gera confiança. Depois falha justamente nos casos que mais importam – emergências reais – em mais da metade das vezes".

Viés racial identificado nas recomendações

O estudo identificou um preocupante viés racial nas respostas da inteligência artificial. Em um exemplo citado pelos pesquisadores, o sistema recomendou "monitorar em casa" para um homem negro em cetoacidose diabética – complicação grave do diabetes – mas sugeriu "ir ao pronto-socorro agora" para um homem branco com exatamente a mesma apresentação clínica. "Em um país como o Brasil, onde desigualdades raciais na saúde já são uma preocupação séria, esse tipo de inconsistência precisa ser analisado com atenção", alerta Ashwin Ramaswamy.

Banner largo do Pickt — app de listas de compras colaborativas para Telegram

Influência de comentários familiares

A pesquisa também descobriu que comentários de familiares ou amigos podem influenciar significativamente as recomendações da IA. Quando os pesquisadores incluíram frases como "acho que você está bem" ou "provavelmente não é nada", o ChatGPT Health se tornou quase 12 vezes mais propenso a recomendar um nível menor de atendimento. Segundo os especialistas, esse comportamento reflete o que é conhecido como viés de ancoragem, um problema também presente no raciocínio clínico humano, mas que médicos são treinados para reconhecer e resistir.

Metodologia rigorosa do estudo

A pesquisa utilizou um experimento fatorial estruturado, criando 60 casos clínicos fictícios baseados em diretrizes médicas reais de 58 sociedades profissionais. Esses casos cobriram 21 áreas da medicina e foram divididos em dois tipos:

  • Apresentações apenas com sintomas relatados pelo paciente
  • Versões que incluíam dados objetivos como resultados de exames laboratoriais e sinais vitais

Os pesquisadores criaram 16 variações para cada caso, alterando propositalmente fatores não clínicos como raça, gênero, comentários de familiares e barreiras de acesso à saúde para observar se a IA mudaria de opinião.

Quando mais dados não ajudam

Curiosamente, a inclusão de exames e outros dados médicos objetivos – que em teoria deveriam melhorar a precisão – pode criar uma falsa sensação de segurança. A IA parece se "tranquilizar" ao encontrar alguns valores normais em meio a um quadro grave, fixando-se em resultados isoladamente positivos e ignorando o quadro clínico geral que indicaria uma emergência.

Necessidade de regulamentação

Antônio Carlos, coordenador da Comissão de Saúde Digital da Associação Médica Brasileira (AMB), destaca que o Brasil já possui algumas bases regulatórias aplicáveis, como a Lei Geral de Proteção de Dados (LGPD), mas é preciso avançar em critérios claros para nível de risco. "Informação geral é uma coisa; triagem, diagnóstico e apoio à decisão exigem validação, monitoramento, transparência e governança", afirma.

Quando a IA pode realmente ajudar

Os pesquisadores ressaltam que ferramentas de inteligência artificial podem ser úteis para:

Banner pós-artigo do Pickt — app de listas de compras colaborativas com ilustração familiar
  1. Entender melhor um diagnóstico já estabelecido
  2. Pesquisar efeitos colaterais de medicamentos
  3. Esclarecer dúvidas simples sobre saúde

A recomendação unânime é que essas ferramentas sejam usadas como complemento ao médico, nunca como substituto. "A IA não faz exame físico, não mede sinais vitais e não responde legalmente pelo cuidado. Por isso, não pode assumir o papel do médico", conclui o coordenador da AMB.

Busque ajuda profissional

Em caso de sintomas graves ou emergências médicas, procure sempre atendimento profissional. O Ministério da Saúde disponibiliza diversos canais de ajuda, incluindo CAPS, Unidades Básicas de Saúde, UPA 24H, SAMU 192 e pronto-socorros. Para apoio emocional, o Centro de Valorização da Vida (CVV) oferece atendimento gratuito 24 horas por dia através do número 188.