Les experts mettent en garde contre l'utilisation de l'IA thérapeutique.

Les experts mettent en garde contre l'utilisation de l'IA thérapeutique.Avec la popularité croissante des chatbots d'intelligence artificielle comme ChatGPT , certains se tournent vers eux à des fins thérapeutiques.
« Il y a environ un an et demi, j'ai commencé à entendre parler de gens qui utilisaient des outils comme ChatGPT pour obtenir du soutien en santé mentale », a déclaré Lawrence Murphy, du chapitre Technologie et solutions innovantes de l'Association canadienne de counseling et de psychothérapie.

Murphy affirme que même les récentes mises à jour de ChatGPT visant à mieux reconnaître les tendances suicidaires et la psychose ne suffisent pas à garantir sa sécurité. D'après de nouvelles données d'OpenAI, environ 1,2 million d'utilisateurs hebdomadaires qui interagissent avec ChatGPT présentent des signes d'idées suicidaires.
« Ce qu’il faut comprendre concernant les conseillers et les psychothérapeutes, et notre profession en général, c’est que son fondement même, son socle, repose sur l’éthique et les meilleures pratiques », a-t-il déclaré. « Ces chatbots, ces grands modèles de langage, n’en sont pas dotés. »
Regardez la vidéo ci-dessus pour en savoir plus sur les raisons pour lesquelles de plus en plus de personnes se tournent vers l'IA pour obtenir un soutien en matière de santé mentale.


