OpenAI punta sull'assistenza sanitaria

OpenAI punta tutto sull'intelligenza artificiale in ambito sanitario.
Secondo quanto riportato da Business Insider , l'azienda ha aggiunto due nuovi leader al suo fiorente team dedicato all'intelligenza artificiale in ambito sanitario e sta assumendo altri ricercatori e ingegneri.
Nate Gross, co-fondatore ed ex direttore strategico di Doximity, strumento di networking aziendale per il settore sanitario, è entrato a far parte di OpenAI a giugno e, secondo Business Insider, guiderà la strategia di commercializzazione dell'azienda nel settore sanitario. Uno dei primi obiettivi del team sarà quello di co-creare nuove tecnologie sanitarie con medici e ricercatori.
OpenAI ha anche assunto Ashley Alexander, ex co-responsabile prodotto di Instagram, che è entrata a far parte dell'azienda martedì come vicepresidente del settore sanitario. L'obiettivo del team di Alexander, ha dichiarato un portavoce a BI, era quello di sviluppare tecnologie per singoli consumatori e medici.
Le nuove assunzioni sono un segnale importante del fatto che OpenAI punta sempre di più sul settore sanitario.
"Il miglioramento della salute umana sarà uno degli impatti determinanti dell'AGI [intelligenza artificiale generale]", ha affermato l'azienda in un comunicato stampa di maggio in cui annunciava HealthBench , il nuovo benchmark dell'azienda per valutare le capacità dei sistemi di intelligenza artificiale in ambito sanitario.
Nel frattempo, i modelli di intelligenza artificiale specializzati nell'aiutare gli operatori sanitari si stanno addentrando sempre di più nel settore sanitario e le persone ricorrono sempre più spesso a ChatGPT per dare un senso ai propri sintomi.
Tuttavia, come per quasi tutto ciò che riguarda l'intelligenza artificiale, la crescente adozione di questa tecnologia nel settore sanitario non è priva di preoccupazioni.
La scommessa di OpenAIOpenAI non è certo la prima azienda a scommettere sull'intelligenza artificiale in ambito sanitario; è addirittura in ritardo rispetto a Palantir, Google e Microsoft, che hanno compiuto progressi in questo settore ormai da diversi anni. E l'impegno dell'azienda nell'intelligenza artificiale in ambito sanitario non è necessariamente una novità, ma ha subito una notevole accelerazione negli ultimi mesi.
Il mese scorso, OpenAI ha annunciato una partnership conPenda Health, fornitore di assistenza primaria con sede in Kenya , per uno studio sull'AI Consult dell'azienda, un copilota clinico basato su LLM che scrive raccomandazioni durante le visite dei pazienti.
Sempre il mese scorso, il CEO di OpenAI, Sam Altman, ha partecipato all'evento della Casa Bianca "Make Health Tech Great Again" , durante il quale il Presidente Trump ha annunciato un'iniziativa del settore privato che consentirà agli americani di condividere le proprie cartelle cliniche su app e programmi tramite "impegni garantiti" da 60 aziende, tra cui OpenAI. Il programma utilizzerà assistenti di intelligenza artificiale conversazionale per l'assistenza ai pazienti.
Circa una settimana dopo, annunciando GPT-5 , OpenAI ha posto particolare attenzione alle capacità del modello in ambito sanitario.
"GPT-5 è il nostro miglior modello finora per le domande relative alla salute", ha scritto l'azienda in un comunicato stampa . "È importante sottolineare che ChatGPT non sostituisce un professionista medico: consideratelo un partner che vi aiuta a comprendere i risultati, a porre le domande giuste durante il tempo a vostra disposizione con i medici e a valutare le opzioni mentre prendete decisioni".
L'azienda ha affermato che il nuovo modello può "segnalare in modo proattivo" potenziali problemi di salute e adattare le risposte al "contesto, al livello di conoscenza e alla posizione geografica" dell'utente. In un esempio nel comunicato stampa, GPT-5 ha creato un piano di riabilitazione di sei settimane per un lanciatore di scuola superiore con lieve distensione al legamento collaterale ulnare collaterale.
Nel frattempo, il nuovo CEO delle applicazioni di OpenAI, Fidji Simo, ha dichiarato di essere "molto entusiasta delle innovazioni che l'intelligenza artificiale genererà nel settore sanitario", in un comunicato stampa in cui annunciava il suo nuovo ruolo il 21 luglio.
Simo ha affermato che la sua convinzione nel potenziale dell'intelligenza artificiale in questo campo deriva dalla sua esperienza personale con il sistema sanitario, dopo aver affrontato "una malattia cronica complessa e poco compresa".
L'assistenza sanitaria, soprattutto negli Stati Uniti, può effettivamente rivelarsi un campo confuso in cui i pazienti possono orientarsi, e OpenAI scommette che l'intelligenza artificiale possa contribuire a risolvere questo problema.
"L'intelligenza artificiale può spiegare i risultati di laboratorio, decodificare il gergo medico, offrire un secondo parere e aiutare i pazienti a comprendere le loro opzioni in un linguaggio semplice. Non sostituirà i medici, ma può finalmente livellare il campo di gioco per i pazienti, mettendoli al posto di comando della propria assistenza", ha scritto Simo nel comunicato.
Intelligenza artificiale in ambito sanitario: futuro o problema?L'intelligenza artificiale può davvero rivoluzionare l'assistenza sanitaria? Ci sono buone e cattive notizie.
Uno studio di Stanford dell'anno scorso ha dimostrato che ChatGPT da solo ha ottenuto ottimi risultati nella diagnosi medica, persino migliori di quelli ottenuti dai medici. Sulla base di questi risultati preliminari, l'intelligenza artificiale specifica per l'assistenza sanitaria potrebbe rivelarsi un potente ausilio diagnostico per gli operatori sanitari.
Alcuni operatori sanitari hanno già iniziato a implementare l'uso dell'intelligenza artificiale specializzata nell'assistenza e nella diagnosi dei pazienti. Open Evidence, una startup di intelligenza artificiale per il settore sanitario che offre un popolare copilota di intelligenza artificiale addestrato nella ricerca medica, ha affermato all'inizio di quest'anno che il suo chatbot è già utilizzato da un quarto dei medici negli Stati Uniti.
Ma con l'aumento delle adozioni, aumentano anche le preoccupazioni.
Alcuni esperti ritengono che i primi test dell'intelligenza artificiale in ambito sanitario non siano affatto rassicuranti , e alcuni esperti medici sono in totale disaccordo con i suggerimenti medici di ChatGPT.
Sebbene in alcuni settori il tasso di fallimento dell'intelligenza artificiale possa essere trascurato, gli errori in ambito sanitario possono essere fatali.
"Per me, il venti percento di risposte problematiche non è sufficiente per un utilizzo quotidiano nel sistema sanitario", ha dichiarato lo scorso anno al Washington Post Roxana Daneshjou, professoressa di medicina e scienza dei dati di Stanford, quando le è stato chiesto di ChatGPT.
Caso esemplificativo : un uomo senza precedenti medici è finito al pronto soccorso con una psicosi indotta da avvelenamento da bromuro , dopo che ChatGPT gli aveva erroneamente consigliato di assumere integratori di bromuro per ridurre l'assunzione di sale da cucina.
Uno degli aspetti più problematici dell'intelligenza artificiale, che rende altamente problematico qualsiasi ragionamento errato nelle decisioni sanitarie, ha a che fare con il nostro pregiudizio verso l'automazione. Quando si utilizza l'intelligenza artificiale, indipendentemente da quanto si sia informati su un argomento, le persone tendono ad attribuire maggiore importanza alle raccomandazioni del modello rispetto alle proprie convinzioni.
Questo pregiudizio è reso ancora più pericoloso dal fatto che l'intelligenza artificiale è intrinsecamente una scatola nera: non abbiamo idea del perché o del come giunga alle conclusioni a cui giunge, il che rende più difficile capire dove il ragionamento potrebbe essere andato storto e se ci si debba fidare del modello.
Quindi, sebbene l'intelligenza artificiale abbia il potenziale per aiutare, o forse persino rivoluzionare, il sistema sanitario, c'è ancora molto da fare prima che ciò possa avvenire in sicurezza.
gizmodo