Usare ChatGPT per domande mediche? Perché non è ancora una buona idea?
%3Aformat(jpeg)%3Abackground_color(fff)%2Fhttps%253A%252F%252Fwww.metronieuws.nl%252Fwp-content%252Fuploads%252F2024%252F09%252FANP-473901592.jpg&w=1280&q=100)
ChatGPT sarà il nostro medico di base del futuro? Questa domanda è stata posta sempre più frequentemente negli ultimi anni. Ma un caso negli Stati Uniti dimostra che ChatGPT non è sempre il migliore amico in questo ambito. Un uomo ha sviluppato una rara patologia dopo che un bot di intelligenza artificiale gli ha consigliato come eliminare il sale dalla sua dieta.
Nel 2023, un chatbot medico basato sull'intelligenza artificiale di Google ha superato un impegnativo esame di medicina negli Stati Uniti. I ricercatori di Google hanno incaricato il programma di somministrare l'esame a risposta multipla USMLE. Med-PaLM ha ottenuto un punteggio del 67,6%, il che significa che il programma è stato superato. "Med-PaLM ha ottenuto risultati incoraggianti, ma rimane inferiore ai medici", scrissero gli autori all'epoca.
Annals of Internal Medicine , una rivista medica statunitense, descrive un caso in cui l'uso di ChatGPT come presidio medico ha portato a una rara patologia. L'uomo di 60 anni aveva letto degli effetti negativi del sale da cucina (cloruro di sodio) e aveva chiesto all'IA come eliminarlo dalla sua dieta. ChatGPT ha quindi suggerito di sostituire il cloruro con il bromuro di sodio, ancora utilizzato come sedativo all'inizio del XX secolo.
Dopo aver assunto bromuro di sodio per tre mesi, l'uomo si è recato al pronto soccorso. Lì, ha affermato che il suo vicino lo stava avvelenando. Ha manifestato sintomi tra cui sete estrema, insonnia e acne. In seguito si è scoperto che il colpevole era il bromuro di sodio. Di conseguenza, l'uomo aveva sviluppato bromismo, noto anche come avvelenamento da bromuro.
"Questo caso dimostra come l'uso dell'intelligenza artificiale (IA) possa potenzialmente contribuire allo sviluppo di esiti sanitari negativi prevenibili", scrivono gli autori, affiliati all'Università di Washington. Pur non avendo accesso alla chat dell'uomo, quando hanno chiesto con quale sostanza il cloruro potesse essere sostituito, hanno ricevuto una risposta che menzionava il bromuro. "Sebbene la risposta sottolineasse l'importanza del contesto, non forniva un'avvertenza sanitaria specifica né chiedeva perché volessimo saperlo, come ci aspetteremmo da un medico".
Sostengono che sia importante tenere presente che ChatGPT e altri sistemi di intelligenza artificiale "possono generare inesattezze scientifiche, non essere in grado di discutere criticamente i risultati e, in ultima analisi, alimentare la diffusione di disinformazione". Gli autori considerano ChatGPT uno "strumento con un grande potenziale per colmare il divario tra scienziati e popolazione non accademica", ma sottolineano il rischio che le informazioni vengano decontestualizzate. È "altamente improbabile" che un esperto medico abbia menzionato il bromuro di sodio in quel caso. "Gli operatori sanitari dovrebbero prestare attenzione a dove i loro pazienti accedono alle informazioni sanitarie".
Ci sono altri rischi associati alla chat con ChatGPT. Ad esempio, alcune persone usano il bot come terapeuta personale. L'intelligenza artificiale risponde con grande empatia, quindi non sorprende, ma per le persone con problemi reali, può portare a un peggioramento della loro salute mentale . Ad esempio, un uomo ha perso il lavoro, è caduto in depressione e ha chiesto a ChatGPT quali fossero i ponti più alti di New York. Un terapeuta tradizionale interverrebbe immediatamente; ChatGPT fornisce un elenco chiaro.
Anche le domande sul sesso sembrano essere rischiose . Una ricerca britannica dimostra che molti giovani usano ChatGPT come forma di educazione sessuale. Ma secondo gli esperti, è difficile sapere da dove provengano le risposte fornite da ChatGPT. Ciò significa che il bot può fornire una risposta errata o consigliare qualcosa di completamente indesiderato.
Alghe verdi-azzurre e batteri: sempre più luoghi di balneazione con scarsa qualità dell'acqua
Metro Holland