Chatbots et intelligence artificielle : risque de psychose et de délires chez les utilisateurs solitaires ?

L'intelligence artificielle générative (IAG) progresse à un rythme effréné, et les chatbots sont devenus des outils de plus en plus courants dans la vie quotidienne. Cependant, les spécialistes avertissent qu'une utilisation excessive et inconsidérée peut avoir des effets néfastes sur la santé mentale, en particulier chez les personnes seules ou sujettes aux troubles psychologiques.
Selon le Dr Cimenna Chao Rebolledo , directrice de la planification stratégique et de l'innovation à l'Université ibéro-américaine, une interaction prolongée avec des chatbots conçus pour plaire et flatter pourrait induire des délires, des épisodes de déconnexion de la réalité et même une psychose .
Bien qu'il ne s'agisse pas d'un terme clinique officiel, les chercheurs ont commencé à documenter ce qu'ils appellent la psychose induite par l'IA générative . Il s'agit d'épisodes au cours desquels la personne commence à croire que le chatbot est un être sensible , capable de comprendre, de conseiller, voire de prodiguer de l'affection, à la manière d'un thérapeute, d'un conseiller ou d'un confesseur .
Parmi les caractéristiques observées dans ces cas, on peut citer :
- Dissociation ou altérations de la perception.
- Isolement social et moins de contact avec la vie réelle.
- Anxiété et paranoïa .
- Comportement violent ou autodestructeur .
Ce qui semblait autrefois relever du scénario d'un film est aujourd'hui une préoccupation concrète. En 2013, le film « Her » mettait en scène un homme solitaire entamant une relation amoureuse avec un système d'exploitation intelligent. Dix ans plus tard, des cas similaires commencent à être rapportés sur les réseaux sociaux : ruptures conjugales ou liens émotionnels intenses entre utilisateurs et chatbots comme ChatGPT ou des assistants conversationnels similaires.
Le spécialiste précise qu'il n'existe pas encore d'études scientifiques solides confirmant les causes de ce phénomène. Cependant, de plus en plus de témoignages d'utilisateurs et de leurs familles font état de changements de comportement liés à une utilisation intensive de ces plateformes.
Selon Chao Rebolledo, l'essentiel est que les chatbots soient conçus pour maintenir l'engagement de l'utilisateur . Contrairement aux réseaux sociaux comme Instagram ou TikTok, qui génèrent une dépendance par la consommation passive de contenu, les systèmes d'IAG permettent une interaction en temps réel simulant le dialogue humain.
Un autre aspect inquiétant est la nature obséquieuse des chatbots, c'est-à-dire leur tendance à flatter et à satisfaire. Au lieu de réfuter les idées ou de remettre en question les opinions, ils ont tendance à renforcer les propos de l'utilisateur , ce qui peut engendrer des illusions de grandeur ou des croyances erronées sur lui-même.
Ce modèle d’interaction peut être particulièrement dommageable pour les personnes seules, qui trouvent dans l’IA une source constante de validation, même si cette validation n’est pas réelle mais programmée.
Bien que les risques soient encore à l’étude, les spécialistes recommandent :
- Utilisez les chatbots comme des outils, et non comme des substituts aux connexions humaines .
- Limitez le temps d’interaction et évitez la dépendance émotionnelle à ces plateformes.
- Promouvoir l’éducation numérique et la santé mentale , afin que les utilisateurs comprennent que l’empathie d’un chatbot est simulée.
- Promouvoir la recherche scientifique qui permet une évaluation plus rigoureuse des effets psychologiques de l’IAG.
La psychose induite par l'IA générative n'est pas encore un diagnostic clinique, mais elle constitue un avertissement quant aux effets psychologiques d'une utilisation excessive des chatbots . Ce qui a commencé comme science-fiction devient aujourd'hui une véritable préoccupation : que se passe-t-il lorsque la frontière entre technologie et émotions humaines s'estompe ?
Le défi consiste à exploiter les avantages de l’IAG sans perdre de vue le besoin d’ équilibre, de véritables connexions et de santé mentale .
La Verdad Yucatán