OpenAI in allerta: ChatGPT potrebbe essere utilizzato per produrre armi biologiche

OpenAI, l'azienda statunitense di intelligenza artificiale che ha sviluppato il popolare chatbot ChatGPT, afferma che i suoi modelli futuri sono estremamente avanzati e potrebbero persino avere la capacità di produrre armi biologiche completamente nuove. In un recente post sul blog, l'azienda ha dichiarato di voler mantenere un equilibrio tra "favorire il progresso scientifico mantenendo la barriera contro le informazioni dannose" e sviluppare modelli più avanzati che "offrano casi d'uso positivi come la ricerca biomedica e la difesa biologica". Si è appreso che l'azienda ha anche valutato la possibilità di utilizzare i suoi modelli di intelligenza artificiale nella produzione di armi biologiche con questa espressione "informazioni dannose".
ANCHE I DILETTANTI POSSONO FARLOJohannes Heidecke, responsabile della sicurezza di OpenAI, ha dichiarato ad Axios che, sebbene non si preveda che i futuri modelli di intelligenza artificiale saranno in grado di creare autonomamente armi biologiche, gli strumenti potrebbero aiutare anche i dilettanti a farlo. "Non ci troviamo in un mondo nuovo in cui vengono create minacce biologiche completamente sconosciute e mai esistite prima", ha affermato Heidecke. "Siamo più preoccupati per cose con cui gli esperti hanno già molta familiarità". Il responsabile della sicurezza di OpenAI ha anche riconosciuto che i nuovi modelli dell'azienda non sono ancora completamente pronti, ma ha aggiunto: "Prevediamo che alcune versioni di prossima generazione del nostro modello di ragionamento O3 raggiungano quel livello".
APPROCCIO FOCALIZZATO SULLA PREVENZIONE"Il nostro approccio è incentrato sulla prevenzione", ha affermato l'azienda in un post sul blog. "Non riteniamo accettabile aspettare e vedere se si verifica una minaccia biologica prima di decidere livelli di sicurezza adeguati". Si teme che i modelli che hanno contribuito a guidare le innovazioni biomediche possano essere sfruttati anche da malintenzionati. Per "impedire che si verifichino danni", come afferma Heidecke, questi modelli futuri dovranno essere programmati per essere "quasi perfetti" sia nell'avvertire le persone di eventuali pericoli che nel riconoscerli. Anche prestazioni del 99% non saranno sufficienti, afferma Heidecke.
ntv