Une étude met en garde contre le fait que la moitié des jeunes utilisent l'intelligence artificielle pour parler de leur santé mentale : voici les risques encourus.
Ce qui a commencé comme un outil d'aide aux devoirs ou de résumé de textes est en train de devenir une nouvelle sorte de « confident numérique ». Une étude du programme de psychologie de l'université Manuela Beltrán (UMB) a révélé que la moitié des jeunes Colombiens ont parlé — ou souhaitent parler — avec une intelligence artificielle (IA) de leur santé mentale.

Des experts avertissent que ces « confidents numériques » ne remplacent pas un soutien psychologique. Photo : iStock
D'après cette étude, 26 % des personnes interrogées ont déjà utilisé des outils comme ChatGPT ou Gemini pour exprimer leurs émotions, tandis que 26 % envisagent de le faire prochainement. Au total, 51 % des jeunes se disent prêts à confier leurs pensées les plus intimes à une machine.
« Les jeunes utilisent l’IA pour parler de santé mentale car elle est accessible, moins sujette aux jugements et offre l’anonymat », explique Hans Acero, chercheur et expert du programme de psychologie de l’UMB. « De leur point de vue, consulter une intelligence artificielle est moins coûteux que de consulter un professionnel. »
Un phénomène émotionnel, et pas seulement technologique. Pour les chercheurs, cette tendance ne s'explique pas uniquement par la curiosité d'expérimenter de nouvelles technologies, mais plutôt par une évolution dans la manière dont les jeunes générations gèrent leur bien-être émotionnel. « L'IA devient un outil qui offre une connexion immédiate : elle ne juge pas, elle est gratuite et elle ne nécessite pas de rendez-vous. C'est pourquoi son utilisation s'étend aux consultations directes concernant les émotions ou les problèmes de santé mentale », a ajouté Acero.
Parmi les sujets les plus fréquemment abordés figurent l'anxiété, la tristesse, la gestion du stress et les problèmes d'estime de soi. 19,2 % des jeunes demandent des conseils pour réduire leur anxiété en public ou gérer leurs difficultés scolaires ; 15,7 % s'informent sur le sommeil ou la relaxation ; et 14,7 % s'interrogent sur les différences entre le stress, la tristesse, l'anxiété et la nostalgie.
L'étude a également examiné la fiabilité que les jeunes accordent aux réponses fournies par l'intelligence artificielle. 37 % des répondants ont déclaré ne suivre les conseils que s'ils les vérifient auprès d'un humain ; 32 % les suivent s'ils leur paraissent « logiques » ; et 30 % ont indiqué ne pas faire confiance à l'IA et préférer parler à une personne réelle.

26 % des jeunes ont déjà utilisé des outils comme ChatGPT ou Gemini pour parler de leurs émotions. Photo : iStock
Malgré cette prudence apparente, une statistique est révélatrice : 62 % des jeunes reconnaissent que les machines ne comprennent pas les émotions humaines, mais se contentent de les simuler. Pourtant, nombreux sont ceux qui continuent de les considérer comme une solution rapide face aux coûts, à la rareté des rendez-vous ou aux difficultés d’accès aux professionnels de la santé mentale.
73 % des personnes ayant utilisé ces outils ne l'ont fait qu'une ou deux fois, pour se défouler rapidement. Les principales raisons invoquées pour privilégier l'IA à un psychologue sont la disponibilité 24 h/24 et 7 j/7 (17,9 %), l'anonymat et l'absence de jugement (13,6 %), le coût réduit ou la gratuité (13,6 %) et la simple curiosité d'essayer (12,7 %).
Risques liés à la transformation de l'IA en « thérapeute » Des chercheurs de l'Université Manuela Beltrán mettent en garde : si l'intelligence artificielle peut sembler apporter une aide immédiate, elle ne saurait remplacer l'intervention d'un professionnel. Parmi les risques les plus graves figurent son incapacité à détecter les troubles cliniques ou le risque suicidaire, la possibilité de prodiguer des conseils génériques ou inadaptés, et l'absence totale de soutien émotionnel et de suivi.
De plus, ils mettent en garde contre un effet insidieux : le renforcement de l’isolement affectif. « On parle, mais on ne crée pas de lien », résume le rapport, soulignant que ces conversations avec des algorithmes peuvent donner l’illusion de la camaraderie sans pour autant offrir une connexion réelle ou empathique.

L'étude met en garde contre des risques tels que l'isolement et un faux sentiment de soutien émotionnel. Photo : iStock
L'étude ne diabolise pas l'IA, mais souligne la nécessité d'un usage judicieux. Les experts recommandent de l'utiliser uniquement comme outil d'aide à la décision, et jamais en remplacement d'une thérapie. Ils suggèrent également de toujours consulter un professionnel concernant les réponses, d'éviter son utilisation si les émotions s'aggravent et, surtout, de ne pas en faire le seul moyen d'expression émotionnelle.
« L’IA répond, mais n’accompagne pas », conclut le document, soulignant que le bien-être émotionnel nécessite une présence humaine, une écoute active et un soutien professionnel.
panneaux d'avertissement Le rapport comprend une liste de signes indiquant la nécessité de solliciter une aide thérapeutique. Parmi ces signes figurent la tristesse, l'anxiété ou l'irritabilité qui persistent pendant plus de deux semaines ; les troubles du sommeil, des études ou des relations sociales ; les pensées répétitives ou un sentiment de vide ; et, surtout, les pensées suicidaires ou la conviction que « rien ne vaut la peine d'être vécu ».
Dans ces cas-là, la recommandation est claire : ne continuez pas à parler à l’IA, mais consultez un professionnel de la santé mentale.
Une étude de l'Université Manuela Beltrán met en lumière un phénomène croissant : la numérisation de l'expression des émotions. À l'heure des algorithmes empathiques et des conseillers virtuels, les experts nous rappellent que la santé mentale demeure un domaine profondément humain.
Journaliste spécialisée en environnement et santé
eltiempo


