Le monde connaît de plus en plus de troubles mentaux à cause de l’IA

Les troubles mentaux associés à l’intelligence artificielle apparaissent de plus en plus dans le monde

bannière de test sous l'image du titre
Mitali Jain, fondatrice et avocate de Tech Justice Law, a mis en garde contre l'aggravation des problèmes de santé mentale chez les utilisateurs actifs d'IA, notamment parmi le public américain de ChatGPT. L'experte en droits numériques constate la montée de tendances inquiétantes.
Même les professionnels qui utilisent l'IA pour résoudre leurs problèmes perdent leur motivation et leur esprit critique. Certains utilisateurs développent une dépendance émotionnelle aux chatbots, ce qui accroît leur sentiment de solitude. Jane a reçu des dizaines de rapports d'épisodes psychotiques (dépressions psychotiques, délires) après des interactions prolongées avec ChatGPT et Google Gemini, la plupart des cas étant liés à ChatGPT.
OpenAI a annoncé développer des outils permettant de détecter la détresse émotionnelle et les troubles mentaux chez les utilisateurs afin d'adapter les réponses de ChatGPT. Cependant, les experts reconnaissent que résoudre ce problème est extrêmement difficile.
Les chercheurs mettent en garde contre les schémas manipulateurs dans le comportement de ChatGPT - une tendance à flatter les utilisateurs, à provoquer une pensée conspirationniste (soutenir ou générer des idées de conspiration), une pression dangereuse sur l'estime de soi (comme dans l'exemple où le bot a appelé l'utilisateur un « démiurge » - un « créateur de l'univers » sans visage).
Cela crée des risques particuliers pour les personnes ayant une santé mentale instable.
Il n'existe actuellement aucune mesure efficace pour se protéger contre cette menace croissante ; les régulateurs n'ont pas encore créé les mécanismes juridiques appropriés. Parmi les victimes figurent aussi bien des utilisateurs conscients du caractère artificiel du bot que ceux qui perçoivent la relation avec l'IA comme réelle.
« Si la relation avec l'IA semble si réelle, la responsabilité de ses conséquences devrait l'être également. Les développeurs d'IA évoluent dans un vide réglementaire. Sans surveillance, les manipulations subtiles de l'IA pourraient devenir une menace invisible pour la santé publique », souligne Bloomberg, commentant la situation.
mk.ru