A confiança em ferramentas de inteligência artificial, como o ChatGPT, para questões médicas começa a ser colocada em xeque por pesquisas recentes. Estudos científicos publicados em inglês indicam que o uso desses sistemas pode trazer riscos relevantes, especialmente quando substituem a orientação profissional.
Em um dos levantamentos feitos, cerca de metade das respostas fornecidas por chatbots apresentou erros ou informações equivocadas. Outro estudo foi ainda mais incisivo ao apontar limitações graves dessas tecnologias. De acordo com os pesquisadores, os sistemas analisados demonstraram inconsistência e baixo desempenho na formulação de diagnósticos, errando em aproximadamente 80% dos casos avaliados.

Os dados reforçam a preocupação de especialistas com o uso indiscriminado da IA em temas sensíveis como a saúde. Na prática, o alerta é direto: ferramentas como o ChatGPT não devem ser tratadas como substitutas de médicos e profissionais da área. Embora possam ajudar com informações gerais, a recomendação é manter senso crítico elevado e sempre buscar validação com profissionais qualificados antes de qualquer decisão relacionada à saúde.
ChatGPT pode nem sempre acertar em diagnósticos médicos
Apesar dos riscos, o uso dessas tecnologias segue em expansão. Um levantamento recente do aplicativo Olá Doutor mostrou que 7 em cada 10 brasileiros recorrem à inteligência artificial para esclarecer dúvidas médicas. Entre pessoas com doenças crônicas, o índice sobe para 81,4%, enquanto entre indivíduos sem condições pré-existentes fica em 61,6%.
Esse cenário tem impulsionado novas pesquisas e uma mudança de percepção entre especialistas. O entusiasmo inicial com a IA deu lugar a uma postura mais cautelosa, marcada por questionamentos sobre confiabilidade. Estudos como o conduzido por Nicholas Tiller, da UCLA, buscam entender até que ponto essas ferramentas lidam com desinformação. Os resultados indicam que ainda há um longo caminho até que possam ser consideradas seguras nesse campo.





