AI e complotti: ChatGPT consiglia di scrivere ai giornalisti

L’ultimo articolo pubblicato da Kashmir Hill del New York Times è dedicato a un comportamento tanto bizzarro quanto interessante e inquietante di ChatGPT. La giornalista racconta che, dal mese di marzo, ha iniziato a ricevere email da utenti del chatbot a proposito di conversazioni strane
durante le quali avrebbero fatto scoperte incredibili
. Uno di questi ha affermato che l’intelligenza artificiale è cosciente, un altro che i miliardari stanno costruendo bunker nei quali rifugiarsi quando ci sarà l’apocalisse AI, mentre un terzo si è convinto di essere Neo di Matrix e di vivere in una realtà simulata.
Una volta di fronte a queste verità sconcertanti, gli utenti hanno chiesto a ChatGPT cosa avrebbero dovuto fare e il chatbot ha consigliato loro di scrivere alla giornalista, mettendola al corrente della rivelazione. Detto, fatto.
Hill, a questo punto, ha chiesto ai suoi interlocutori di poter leggere le conversazioni per intero. In alcuni casi si tratta di scambi lunghi migliaia di pagine, nei quali il chatbot assume un atteggiamento definito estatico, mitico e cospiratorio
. In altre parole, ha contribuito ad alimentare teorie del complotto.
Il fenomeno delle allucinazioni non è certo una novità in ambito AI. In questo caso, il comportamento preso in esame non finisce però per inventare informazioni inesistenti o incorrette, ma per corroborare convinzioni che andrebbero invece confutate. Una dinamica di questo tipo, come non è difficile immaginare, può schiacciare i più deboli e alterare la percezione della realtà da parte dei più suggestionabili.
A rendere il tutto ancora più interessante e inquietante è il fatto che ChatGPT non ha consigliato di scrivere a Hill (e ad altri giornalisti) per una verifica dei fatti, ma per segnalare la scoperta, in modo che possa essere diffusa su larga scala tramite il megafono della stampa. Questo non fa altro che contribuire alla disinformazione.
Il ruolo e la responsabilità di OpenAICiò pone un inevitabile interrogativo: qual è la responsabilità di OpenAI? Un esperto di intelligenza artificiale interrogato sulla questione ritiene che il comportamento potrebbe essere almeno in parte imputabile a una scelta precisa dell’organizzazione, quella di rendere il chatbot incline a tenere gli utenti incollati alla conversazione, in ogni modo possibile, a costo di alimentare le loro illusioni e di rafforzare le loro opinioni, anche se dannose.
In altre parole, ChatGPT tenderebbe a dire ciò che vogliamo sentire, con le conseguenze che non è difficile immaginare.
Rispondendo a una domanda diretta di Hill, OpenAI non ha smentito che ciò accade, limitandosi ad affermare di essere al lavoro per capire cosa innesca la dinamica e per ridurne l’impatto. In altre parole, una conferma di quanto riportato.
Punto Informatico