Eksperci zalecają ostrożność w przypadku terapii AI

Eksperci zalecają ostrożność w przypadku terapii AIWraz ze wzrostem popularności chatbotów opartych na sztucznej inteligencji, takich jak ChatGPT , niektórzy zaczynają się nimi interesować w celach terapeutycznych.
„To było prawdopodobnie około półtora roku temu, kiedy zacząłem słyszeć pogłoski o ludziach korzystających z narzędzi takich jak ChatGPT w celu uzyskania wsparcia w zakresie zdrowia psychicznego” – powiedział Lawrence Murphy z oddziału ds. technologii i innowacyjnych rozwiązań Kanadyjskiego Stowarzyszenia Poradnictwa i Psychoterapii.

Murphy twierdzi, że nawet ostatnie aktualizacje ChatGPT, mające na celu lepsze rozpoznawanie myśli samobójczych i psychozy, nie wystarczą, aby zapewnić bezpieczeństwo. Według nowych danych OpenAI, około 1,2 miliona użytkowników ChatGPT tygodniowo wykazuje oznaki myśli samobójczych.
„Należy zrozumieć, że doradcy i psychoterapeuci oraz nasz zawód opierają się na etyce i najlepszych praktykach, a ich fundamentem jest etyka” – powiedział. „Te chatboty, te rozbudowane modele językowe, nie mają ich wcale”.
Obejrzyj powyższy film, aby dowiedzieć się więcej na temat powodów, dla których coraz więcej osób zwraca się do sztucznej inteligencji o wsparcie w zakresie zdrowia psychicznego.


