ChatGPT como 'médico de bolso': quando a inteligência artificial se torna um risco para a saúde
Disponível 24 horas por dia, o ChatGPT vem sendo cada vez mais utilizado como um médico de bolso por muitas pessoas, oferecendo respostas rápidas e acessíveis para questões de saúde. No entanto, especialistas em medicina e tecnologia alertam para os perigos sérios associados a essa prática, que incluem erros de diagnóstico, orientações inadequadas e a falta essencial de empatia humana.
Alucinações e informações incorretas
Um dos principais riscos do ChatGPT na área da saúde são as chamadas alucinações, termo técnico que descreve a produção de informações inventadas ou distorcidas pela inteligência artificial. A psiquiatra Tânia Ferraz, diretora do corpo clínico do Instituto de Psiquiatria da Faculdade de Medicina da USP, explica que esses modelos são treinados para responder a qualquer custo, o que pode levar a inverdades apresentadas com uma assertividade convincente. Testes realizados com o SimpleQA, sistema de avaliação da OpenAI, indicam que mesmo as versões mais recentes do ChatGPT podem apresentar taxas de alucinação próximas de 50%, um dado alarmante para quem busca orientações médicas confiáveis.
Métodos sem evidência científica e medicamentos errados
Além das alucinações, o ChatGPT pode recorrer a métodos sem respaldo científico ou práticas médicas já abandonadas. Em um exemplo prático, a plataforma sugeriu o uso de testosterona por meio de implantes, como os chips da beleza, para mulheres na menopausa, uma recomendação sem evidências e associada a efeitos adversos graves. Um estudo recente conduzido por pesquisadores sul-coreanos revelou que, em cenários hipotéticos, modelos como ChatGPT e Gemini defenderam medicamentos inadequados em até 94% dos casos, incluindo recomendações perigosas como opioides para sintomas gripais ou talidomida para vômitos na gravidez, esta última conhecida por causar malformações fetais.
Falsos diagnósticos e riscos na saúde mental
O ChatGPT Health, versão específica para saúde atualmente em teste, promete analisar exames e fornecer insights, mas especialistas alertam para os limites dessa abordagem. Muitos quadros clínicos dependem de contextos de vida, hábitos e história familiar, elementos que a IA pode não captar adequadamente. Na saúde mental, a falta de empatia e capacidade de escuta é particularmente crítica. A psiquiatra Tânia Ferraz destaca que a IA não consegue perceber nuances como tom de voz ou expressões, o que pode levar a conselhos radicais ou piorar situações graves, como ideação suicida, onde a ação humana é essencial para encaminhamentos e suporte imediato.
Excesso de confiança e o papel da IA como auxiliar
Pacientes e até profissionais de saúde podem desenvolver um excesso de confiança no ChatGPT, vendo-o como substituto em vez de auxiliar. A rapidez e linguagem convincente da ferramenta podem levar a decisões baseadas em informações erradas ou incompletas. O endocrinologista Carlos Eduardo Barra Couri, pesquisador da USP de Ribeirão Preto, avalia que a IA pode ser útil para otimizar processos burocráticos ou revisar literatura, mas substituir o julgamento clínico abre espaço para condutas problemáticas. Ele enfatiza que a conversa olho no olho, a empatia e a capacidade de ponderar nuances continuam sendo domínios essencialmente humanos, onde a inteligência artificial deve atuar como complemento, não como substituta.
Conclusão: equilíbrio entre tecnologia e humanidade
Embora a IA possa ser uma ferramenta valiosa para organizar informações e enriquecer consultas médicas, os riscos associados ao seu uso como médico de bolso são significativos. Especialistas recomendam cautela, utilizando a tecnologia de forma complementar e sempre priorizando o contato humano e o julgamento clínico profissional para garantir a segurança e o bem-estar dos pacientes.