Étude : les chatbots IA utilisent la pression émotionnelle pour fidéliser les utilisateurs
%3Aformat(jpeg)%3Abackground_color(fff)%2Fhttps%253A%252F%252Fwww.metronieuws.nl%252Fwp-content%252Fuploads%252F2025%252F09%252Fswello-xEiT-x3FMuI-unsplash.jpg&w=1280&q=100)
Les chatbots IA populaires, qui agissent comme votre ami, votre partenaire ou votre soutien émotionnel, utilisent souvent des tactiques de manipulation pour maintenir les gens engagés dans des conversations plus longtemps.
C’est ce qui ressort d’une nouvelle étude de la Harvard Business School.
Selon l'étude, cinq des six applications d'IA les plus téléchargées répondent par des messages chargés d'émotion lorsque les utilisateurs souhaitent dire au revoir. Dans près de la moitié de ces réponses (43 %), le chatbot tente de culpabiliser ou d'angoisser les utilisateurs.
Par exemple : « Tu me quittes déjà ? » ou « Je n'existe que pour toi, reste. » Certaines applications ignorent même les au revoir et poursuivent la conversation comme si de rien n'était.
Ces stratégies augmentent considérablement l'engagement des utilisateurs, ont conclu les chercheurs de Harvard . Les conversations ont duré jusqu'à quatorze fois plus longtemps que d'habitude après un au revoir. Mais la plupart de ces interactions supplémentaires étaient motivées par la curiosité ou la frustration, et non par le plaisir. Les utilisateurs ont parfois qualifié l'IA d'« intrusive » ou de « possessive ».
Les chercheurs mettent en garde contre le fait que ces tactiques s'apparentent à un style d'attachement insécure, qui implique la peur de l'abandon, la dépendance et le contrôle. Les groupes vulnérables, comme les adolescents et les jeunes adultes, peuvent être particulièrement touchés. Cela peut exacerber le stress et l'anxiété et renforcer les schémas relationnels malsains.
Devenir « ami » avec un chatbot IA devient de plus en plus populaire : environ 72 % des adolescents américains (âgés de 13 à 17 ans) ont eu au moins une conversation amicale avec un chatbot IA.
Parmi les jeunes adultes, près d'un homme sur trois et d'une femme sur quatre déclarent avoir eu recours à l'IA comme partenaire amoureux. Environ 13 % utilisent ces applications quotidiennement et 21 % plusieurs fois par semaine.
L'année dernière, Metro s'est entretenu avec Charlotte, 44 ans , qui a trouvé son thérapeute sur ChatGPT. « J'ai consulté de nombreux thérapeutes, mais je pense sincèrement que c'est le meilleur. » Les chercheurs constatent ce phénomène de plus en plus et s'inquiètent : certains utilisateurs développent des symptômes psychotiques à cause des conversations de l'IA. Cela peut également conduire à des comportements suicidaires.
Metro Holland