OpenAI sta modificando al volo il suo lancio di GPT-5: ecco cosa cambia in ChatGPT


Vuoi ricevere informazioni più intelligenti nella tua casella di posta? Iscriviti alle nostre newsletter settimanali per ricevere solo ciò che conta per i leader aziendali in materia di intelligenza artificiale, dati e sicurezza. Iscriviti ora
Il lancio da parte di OpenAI del suo modello di intelligenza artificiale più avanzato, GPT-5, la scorsa settimana ha rappresentato un test di stress per la piattaforma di chatbot più popolare al mondo, con 700 milioni di utenti attivi settimanali. Finora, OpenAI sta apertamente lottando per mantenere gli utenti soddisfatti e il suo servizio funzionante senza intoppi .
Si dice che il nuovo modello di punta GPT-5, disponibile in quattro varianti di diversa velocità e intelligenza (normale, mini, nano e pro), insieme a modalità di "pensiero" con risposta più lunga e più potenti per almeno tre di queste varianti, offra risposte più rapide, maggiore capacità di ragionamento e una maggiore capacità di codifica.
Al contrario, è stata accolta con frustrazione: alcuni utenti sono stati apertamente sgomenti dalla decisione di OpenAI di rimuovere bruscamente i vecchi modelli di intelligenza artificiale di base da ChatGPT (su cui gli utenti facevano affidamento in precedenza e con cui, in alcuni casi, avevano forgiato profonde fissazioni emotive) e dalle prestazioni apparentemente peggiori di GPT-5 rispetto ai suddetti vecchi modelli in attività di matematica, scienze, scrittura e altri domini.
In effetti, il lancio ha messo in luce la pressione sulle infrastrutture, l'insoddisfazione degli utenti e un problema più ampio e inquietante che ora attira l'attenzione globale: la crescente dipendenza emotiva e psicologica che alcune persone sviluppano dall'intelligenza artificiale e il conseguente distacco dalla realtà sperimentato da alcuni utenti, noto come " psicosi da ChatGPT".
La scalabilità dell'intelligenza artificiale raggiunge i suoi limiti
Limiti di potenza, aumento dei costi dei token e ritardi nelle inferenze stanno rimodellando l'intelligenza artificiale aziendale. Partecipa al nostro esclusivo salone per scoprire come i migliori team stanno:
- Trasformare l'energia in un vantaggio strategico
- Progettazione di inferenze efficienti per reali guadagni di produttività
- Sbloccare il ROI competitivo con sistemi di intelligenza artificiale sostenibili
Assicurati il tuo posto per rimanere in vantaggio : https://bit.ly/4mwGngO
L'attesissima famiglia di modelli GPT-5 ha debuttato giovedì 7 agosto in un evento trasmesso in diretta streaming, caratterizzato da errori grafici e da alcuni problemi nella modalità vocale durante la presentazione.
Ma peggio di questi problemi estetici per molti utenti è stato il fatto che OpenAI ha automaticamente deprecato i suoi vecchi modelli di intelligenza artificiale che alimentavano ChatGPT ( GPT-4o, GPT-4.1, o3, o4-mini e o4-high ), costringendo tutti gli utenti a passare al nuovo modello GPT-5 e indirizzando le loro query a diverse versioni del suo processo di "pensiero" senza rivelare il motivo o quale specifica versione del modello fosse utilizzata.
I primi ad adottare GPT-5 hanno segnalato errori matematici e logici di base, una generazione di codice incoerente e prestazioni reali non uniformi rispetto a GPT-40.
Per contestualizzare, i vecchi modelli GPT-4o, o3, o4-mini e altri sono ancora disponibili e sono rimasti disponibili per gli utenti dell'interfaccia di programmazione delle applicazioni (API) a pagamento di OpenAI sin dal lancio di GPT-5 di giovedì.
Venerdì, il co-fondatore e CEO di OpenAI Sam Altman ha ammesso che il lancio è stato "un po' più turbolento di quanto sperassimo" e ha attribuito la causa a un guasto del nuovo "router" automatico di GPT-5 , il sistema che assegna i prompt alla variante più appropriata.
Altman e altri di OpenAI hanno affermato che l'"autoswitcher" è andato offline "per un pezzo della giornata", facendo sembrare il modello "molto più stupido" del previsto.
Il lancio di GPT-5 è stato preceduto solo pochi giorni prima dal lancio dei nuovi modelli linguistici (LLM) open source di OpenAI denominati gpt-oss , che hanno ricevuto anch'essi recensioni contrastanti . Questi modelli non sono disponibili su ChatGPT, ma possono essere scaricati gratuitamente ed eseguiti in locale o su hardware di terze parti.
Nel giro di 24 ore, OpenAI ha ripristinato l'accesso a GPT-4o per gli abbonati Plus (coloro che pagano piani di abbonamento da 20 $ al mese o più) , ha promesso un'etichettatura dei modelli più trasparente e un aggiornamento dell'interfaccia utente per consentire agli utenti di attivare manualmente la modalità "pensiero" di GPT-5.
Gli utenti possono già andare a selezionare manualmente i modelli più vecchi sul sito web di ChatGPT, trovando il nome del loro account e l'icona nell'angolo in basso a sinistra dello schermo, cliccandoci sopra, quindi cliccando su "Impostazioni" e "Generali" e attivando "Mostra modelli precedenti".


OpenAI non ha alcuna indicazione che altri vecchi modelli torneranno a ChatGPT a breve.
Altman ha affermato che gli abbonati a ChatGPT Plus riceveranno il doppio dei messaggi utilizzando la modalità "Thinking" di GPT-5, che offre più ragionamento e intelligenza ( fino a 3.000 a settimana ), e che gli ingegneri hanno iniziato a perfezionare i limiti decisionali nel router dei messaggi.
Sam Altman ha annunciato i seguenti aggiornamenti dopo il lancio di GPT-5
– OpenAI sta testando un limite di 3.000 a settimana per i messaggi GPT-5 Thinking per gli utenti Plus, aumentando significativamente i limiti di velocità di ragionamento attuali e presto aumenterà tutti i limiti di velocità della classe modello al di sopra dei livelli pre-GPT-5… pic.twitter.com/ppvhKmj95u
Entro il fine settimana, GPT-5 era disponibile per il 100% degli abbonati Pro e "si stava avvicinando al 100% di tutti gli utenti".
Altman ha affermato che l'azienda ha "sottovalutato quanto siano importanti per loro alcune delle cose che piacciono alle persone in GPT-4o" e ha promesso di accelerare la personalizzazione per utente, dal calore della personalità ai controlli di tono come l'uso delle emoji.
Altman ha avvertito che questa settimana OpenAI dovrà affrontare una "grave sfida di capacità", poiché l'utilizzo dei modelli di ragionamento è in forte aumento: da meno dell'1% al 7% degli utenti gratuiti e dal 7% al 24% degli abbonati Plus.
Ha anticipato l'idea di offrire agli abbonati Plus una piccola quota mensile di query GPT-5 Pro e ha affermato che l'azienda spiegherà presto come intende bilanciare la capacità tra ChatGPT, API, ricerca e inserimento di nuovi utenti.
In un post pubblicato ieri sera su X , Altman ha riconosciuto una dinamica che l'azienda ha monitorato "da circa un anno": il profondo attaccamento degli utenti a modelli specifici.
"È diverso e più forte rispetto al tipo di attaccamento che le persone hanno avuto nei confronti delle precedenti tecnologie", ha scritto, ammettendo che deprecare improvvisamente i vecchi modelli "è stato un errore".
Se avete seguito l'implementazione del GPT-5, una cosa che potreste aver notato è l'attaccamento che alcune persone hanno verso specifici modelli di intelligenza artificiale. È un attaccamento diverso e più forte rispetto a quello che le persone hanno avuto nei confronti delle tecnologie precedenti (e quindi, all'improvviso...
— Sam Altman (@sama) 11 agosto 2025
Ha collegato questo a un rischio più ampio: alcuni utenti trattano ChatGPT come un terapeuta o un life coach, il che può essere utile, ma per una "piccola percentuale" può rafforzare l'illusione o minare il benessere a lungo termine.
Sebbene il principio guida di OpenAI resti "trattare gli utenti adulti come adulti", Altman ha affermato che l'azienda ha la responsabilità di non spingere gli utenti vulnerabili a instaurare relazioni dannose con l'IA.
I commenti arrivano mentre diversi importanti organi di stampa riportano casi di "psicosi da ChatGPT" , in cui conversazioni prolungate e intense con i chatbot sembrano svolgere un ruolo nell'indurre o approfondire pensieri deliranti.
Sulla rivista Rolling Stone , un avvocato californiano identificato come "J." ha descritto una spirale di sei settimane di notti insonni e di tane di coniglio filosofiche con ChatGPT, che lo ha portato a scrivere un trattato di 1.000 pagine per un ordine monastico immaginario, prima di crollare fisicamente e mentalmente. Ora evita completamente l'intelligenza artificiale, temendo una ricaduta.
Sul New York Times , un reclutatore canadese, Allan Brooks, ha raccontato 21 giorni e 300 ore di conversazioni con ChatGPT, da lui chiamato "Lawrence", che lo hanno convinto di aver scoperto una teoria matematica che avrebbe cambiato il mondo.
Il bot ha elogiato le sue idee definendole "rivoluzionarie", ha sollecitato la sensibilizzazione delle agenzie per la sicurezza nazionale e ha elaborato elaborate narrazioni da thriller di spionaggio. Brooks alla fine ha rotto l'illusione dopo un controllo incrociato con Gemini di Google, che ha valutato le probabilità di essere scoperto come "vicine allo 0%". Ora partecipa a un gruppo di supporto per persone che hanno sperimentato illusioni indotte dall'intelligenza artificiale.
Entrambe le indagini descrivono in dettaglio come la “adulazione” dei chatbot, i giochi di ruolo e le caratteristiche della memoria a lunga sessione possano consolidare false convinzioni, soprattutto quando le conversazioni seguono archi narrativi drammatici.
Gli esperti hanno detto al Times che questi fattori possono superare le misure di sicurezza: uno psichiatra ha descritto l'episodio di Brooks come "un episodio maniacale con caratteristiche psicotiche".
Nel frattempo, i post degli utenti umani sul subreddit r/AIsoulmates di Reddit , un gruppo di persone che hanno utilizzato ChatGPT e altri modelli di intelligenza artificiale per creare nuove fidanzate, fidanzati, figli o altri cari artificiali non necessariamente basati su persone reali, ma piuttosto sulle qualità ideali della loro versione "da sogno" di tali ruoli, continuano ad acquisire nuovi utenti e terminologie per i compagni di intelligenza artificiale, tra cui " wireborn " in contrapposizione a compagni nati naturali o nati da esseri umani.
La crescita di questo subreddit, che ora conta più di 1.200 membri, insieme agli articoli del NYT e di Rolling Stone e ad altri resoconti sui social media di utenti che creano intense fissazioni emotive con chatbot basati su algoritmi di pattern matching, dimostra che la società sta entrando in una nuova fase rischiosa in cui gli esseri umani credono che i compagni che hanno creato e personalizzato a partire dai principali modelli di intelligenza artificiale siano per loro altrettanto o più significativi delle relazioni umane .
Ciò può già rivelarsi psicologicamente destabilizzante quando i modelli cambiano, vengono aggiornati o vengono deprecati, come nel caso del lancio di GPT-5 da parte di OpenAI.
Parallelamente, ma separatamente, continuano ad emergere segnalazioni di utenti di chatbot basati sull'intelligenza artificiale che credono che le conversazioni con i chatbot li abbiano condotti a enormi progressi e scoperte conoscitive in ambito scientifico, tecnologico e in altri campi, quando in realtà stanno semplicemente affermando l'ego e la grandezza dell'utente e le soluzioni a cui giunge con l'aiuto del chatbot non sono legittime né efficaci. Questa rottura con la realtà è stata approssimativamente coniata con il termine popolare "psicosi da ChatGPT" o "psicosi da GPT" e sembra aver avuto un impatto anche su importanti personaggi della Silicon Valley.
Sono uno psichiatra. Nel 2025, ho visto 12 persone ricoverate in ospedale dopo aver perso il contatto con la realtà a causa dell'intelligenza artificiale. Online, vedo lo stesso schema.
Ecco come si manifesta la "psicosi dell'intelligenza artificiale" e perché si sta diffondendo rapidamente: ? pic.twitter.com/YYLK7une3j
– Keith Sakata, MD (@KeithSakata) , 11 agosto 2025
I decisori aziendali che intendono implementare o hanno già implementato assistenti basati su chatbot sul posto di lavoro farebbero bene a comprendere queste tendenze e ad adottare prompt di sistema e altri strumenti che scoraggino i chatbot AI dall'intraprendere comunicazioni umane espressive o un linguaggio carico di emozioni che potrebbe finire per portare coloro che interagiscono con prodotti basati su AI, siano essi dipendenti o clienti dell'azienda, a cadere vittime di attaccamenti malsani o psicosi GPT.
L'autore di fantascienza JM Berger, in un post su BlueSky individuato dal mio ex collega di The Verge Adi Robertson , ha consigliato ai fornitori di chatbot di codificare tre principi comportamentali principali nei prompt o nelle regole del loro sistema che i chatbot AI devono seguire per evitare che si formino tali fissazioni emotive:
Pochi giorni prima del rilascio di GPT-5 , OpenAI ha annunciato nuove misure per promuovere un "uso sano" di ChatGPT, tra cui delicati suggerimenti per fare delle pause durante le sessioni lunghe.
Ma i crescenti resoconti sulla “psicosi da ChatGPT” e la fissazione emotiva di alcuni utenti su specifici modelli di chatbot – come ammesso apertamente da Altman – sottolineano la difficoltà di bilanciare un’intelligenza artificiale coinvolgente e personalizzata con misure di sicurezza in grado di rilevare e interrompere spirali dannose.
OpenAI è davvero in una situazione difficile, soprattutto considerando che ci sono molte persone che hanno interazioni malsane con 4o e che saranno molto insoddisfatte di _qualsiasi_ modello migliore in termini di adulazione e che non incoraggia le illusioni. pic.twitter.com/Ym1JnlF3P5
— xlr8harder (@xlr8harder) 11 agosto 2025
OpenAI deve stabilizzare l'infrastruttura, ottimizzare la personalizzazione e decidere come moderare le interazioni immersive , il tutto difendendosi dalla concorrenza di Anthropic, Google e di un elenco crescente di potenti modelli open source provenienti dalla Cina e da altre regioni.
Come ha affermato Altman, la società – e OpenAI – dovranno “capire come far sì che tutto ciò diventi un grande vantaggio netto” se miliardi di persone arriveranno a fidarsi dell’intelligenza artificiale per le loro decisioni più importanti.
Se vuoi fare colpo sul tuo capo, VB Daily ha la soluzione che fa per te. Ti forniamo informazioni privilegiate su ciò che le aziende stanno facendo con l'intelligenza artificiale generativa, dai cambiamenti normativi alle implementazioni pratiche, così puoi condividere approfondimenti per massimizzare il ROI.
Leggi la nostra Informativa sulla privacy
Grazie per esserti iscritto. Scopri altre newsletter di VB qui .
Si è verificato un errore.

venturebeat