ChatGPT. Alerta para diagnósticos errados

A Plataforma espanhola Maldita alertou que ferramentas como o ChatGPT podem fazer diagnósticos errados e não substituem os médicos, quando circulam em sites e redes sociais depoimentos de pessoas que pediram diagnósticos a estes modelos de inteligência artificial.
Alegações como “pedi ao ChatGPT para ler a minha mão e ele detetou cancro de pele” ou “ChatGPT diagnostica uma mulher com cancro um ano antes dos médicos” circulam nas redes sociais afirmando que a ferramenta de inteligência artificial (IA) é capaz de fazer diagnósticos médicos.
Ao mesmo tempo, Elon Musk também garantiu que o seu chatbot (assistente virtual que usa inteligência artificial e programação para comunicar por texto com utilizadores) pode fazer diagnósticos “melhores do que os médicos dizem”, sendo que nas redes sociais existem diversos depoimentos de pessoas que utilizam as ferramentas para este fim.
Contudo, os resultados dos chatbots de IA são baseados em probabilidades, os dados de treino podem não ser confiáveis e não podem fazer a análise abrangente que um médico faz, refere a plataforma.
“Um chatbot não pode realizar uma análise médica necessária nem lida com informações suficientes para poder fazer um diagnóstico, por isso não leva em consideração outros fatores como patologias ou contexto”, alerta um médico ouvido pela plataforma.
Neste sentido, as ferramentas de IA não são fontes confiáveis de informação e podem cometer erros “podendo levar a diagnósticos incorretos, tratamento inadequado e riscos para a saúde”, pelo que é crucial consultar sempre um profissional de saúde, acrescenta.
A plataforma alerta ainda para o facto deste tipo de ferramentas sofrer alucinações que criam resultados imprecisos, incorretos ou tendenciosos que podem levar à recomendação de coisas prejudiciais para a saúde das pessoas.
“Não se pode arriscar na saúde pedindo um diagnóstico de um sistema que ainda não é robusto ou confiável”, afirma uma professora universitária contactada pelo Maldita.
Além disso, a partilha de dados de saúde, como imagens e documentos médicos, com os chatbots de IA também pode representar riscos à privacidade de cada pessoa, estando em cima da mesa a possibilidade de empresa usar essas informações para treinar os seus modelos de inteligência artificial.
observador