Uno studio avverte che metà dei giovani usa l'intelligenza artificiale per parlare della propria salute mentale: ecco i rischi
Quello che è nato come uno strumento per aiutare con i compiti o per riassumere testi sta diventando un nuovo tipo di "confidente digitale". Uno studio del Programma di Psicologia dell'Università Manuela Beltrán (UMB) ha rivelato che metà dei giovani colombiani ha parlato, o vorrebbe parlare, della propria salute mentale con un'intelligenza artificiale (IA).

Gli esperti avvertono che questi "confidenti digitali" non sostituiscono il supporto psicologico. Foto: iStock
Secondo la ricerca, il 26% degli intervistati ha già utilizzato strumenti come ChatGPT o Gemini per esprimere le proprie emozioni, mentre un altro 26% prevede di farlo in futuro. Nel complesso, il 51% dei giovani è disposto ad affidare i propri pensieri più intimi a una macchina.
"I giovani usano l'intelligenza artificiale per parlare di salute mentale perché è accessibile, consente meno giudizi e garantisce l'anonimato", ha spiegato il ricercatore Hans Acero, esperto del Programma di Psicologia dell'UMB. "Dal loro punto di vista, è più economico consultare un'intelligenza artificiale che un professionista".
Un fenomeno emotivo, non solo tecnologico Per i ricercatori, questa tendenza non è guidata solo dalla curiosità di provare nuove tecnologie, ma piuttosto da un cambiamento nel modo in cui le giovani generazioni gestiscono il proprio benessere emotivo. "L'intelligenza artificiale sta diventando uno strumento che offre alle persone una connessione immediata: non giudica, non fa pagare, non richiede appuntamenti. Ecco perché il suo utilizzo si sta espandendo per includere consulenze dirette su emozioni o problemi di salute mentale", ha aggiunto Acero.
Tra gli argomenti più frequenti ci sono ansia, tristezza, gestione dello stress e problemi di autostima. Il 19,2% dei giovani chiede consigli su come ridurre l'ansia in pubblico o gestire le frustrazioni accademiche; il 15,7% chiede informazioni sul sonno o sul rilassamento; e il 14,7% chiede informazioni sulle differenze tra stress, tristezza, ansia e nostalgia.
Lo studio ha anche esplorato il livello di affidabilità che i giovani attribuiscono alle risposte fornite dall'intelligenza artificiale. Il 37% degli intervistati ha dichiarato di seguire i consigli solo se verificati da un essere umano; il 32% li segue se "sembrano logici"; e il 30% ha affermato di non fidarsi dell'intelligenza artificiale e di preferire parlare con una persona reale.

Il 26% dei giovani ha già utilizzato strumenti come ChatGPT o Gemini per parlare delle proprie emozioni. Foto: iStock
Nonostante questa apparente cautela, un dato statistico è fondamentale: il 62% dei giovani riconosce che le macchine non comprendono le emozioni umane, ma si limitano a simularle. Tuttavia, molti continuano a considerarle un'alternativa rapida ai costi, alla scarsità di appuntamenti o alla difficoltà di accesso a professionisti della salute mentale.
Il 73% di coloro che hanno utilizzato questi strumenti lo ha fatto solo una o due volte, come un modo per sfogarsi rapidamente. Le ragioni principali per cui si sceglie l'IA rispetto a uno psicologo includono la disponibilità 24 ore su 24, 7 giorni su 7 (17,9%), l'anonimato e l'assenza di giudizio (13,6%), i costi ridotti o gratuiti (13,6%) e la semplice curiosità di provarla (12,7%).
I rischi di trasformare l’intelligenza artificiale in un “terapeuta” I ricercatori dell'Università Manuela Beltrán avvertono che, sebbene l'intelligenza artificiale possa sembrare un aiuto immediato, non può sostituire l'intervento professionale. Tra i rischi più gravi vi sono l'incapacità di rilevare condizioni cliniche o rischi suicidari, la possibilità di fornire consigli generici o inappropriati e la totale mancanza di supporto emotivo o di follow-up.
Inoltre, mettono in guardia da un effetto silenzioso: rafforza l'isolamento emotivo. "Parli, ma non ti connetti", riassume il rapporto, osservando che queste conversazioni con gli algoritmi possono creare l'illusione di compagnia senza offrire una connessione reale o empatica.

Lo studio mette in guardia da rischi come l'isolamento e un falso senso di supporto emotivo. Foto: iStock
Lo studio non demonizza l'uso dell'IA, ma ne sottolinea la necessità di un uso giudizioso. Gli esperti raccomandano di impiegarla solo come strumento di guida, mai come sostituto della terapia. Suggeriscono inoltre di consultare sempre un professionista in merito alle risposte, di evitarne l'uso se le emozioni peggiorano e, soprattutto, di non farne l'unico strumento per sfogare le proprie emozioni.
“L’intelligenza artificiale risponde, ma non accompagna”, conclude il documento, sottolineando che il benessere emotivo richiede la presenza umana, l’ascolto attivo e il supporto professionale.
Segnali di avvertimento Il rapporto include un elenco di segnali che indicano quando è necessario cercare un vero aiuto terapeutico. Tra questi, tristezza, ansia o irritabilità che persistono per più di due settimane; difficoltà a dormire, studiare o socializzare; pensieri ripetitivi o una sensazione di vuoto; e, soprattutto, pensieri di autolesionismo o che "nulla vale la pena".
In questi casi, la raccomandazione è chiara: non continuare a parlare con l'IA, ma rivolgersi a uno specialista della salute mentale.
Una ricerca dell'Università Manuela Beltrán porta alla ribalta un fenomeno in crescita: la digitalizzazione dello sfogo emotivo. In un'epoca di algoritmi empatici e consulenti virtuali, gli esperti ci ricordano che la salute mentale rimane un ambito profondamente umano.
Giornalista ambientale e sanitario
eltiempo


