Chatboty i sztuczna inteligencja: ryzyko psychozy i urojeń u samotnych użytkowników?

Generatywna sztuczna inteligencja (GAI) rozwija się w zawrotnym tempie, a chatboty stają się coraz powszechniejszymi narzędziami w życiu codziennym. Specjaliści ostrzegają jednak, że nadmierne i nieuporządkowane korzystanie z nich może mieć negatywny wpływ na zdrowie psychiczne, zwłaszcza u osób samotnych lub podatnych na zaburzenia psychiczne.
Zdaniem dr Cimenny Chao Rebolledo , dyrektor ds. planowania strategicznego i innowacji na Uniwersytecie Iberoamerykańskim, długotrwała interakcja z chatbotami, których zadaniem jest zadowalanie i schlebianie, może prowadzić do urojeń, okresów odłączenia od rzeczywistości, a nawet psychozy .
Chociaż nie jest to oficjalny termin kliniczny, naukowcy zaczęli dokumentować to, co nazywają psychozą indukowaną przez sztuczną inteligencję generatywną . Są to epizody, w których osoba zaczyna wierzyć, że chatbot jest istotą świadomą , zdolną do rozumienia, doradzania, a nawet okazywania uczuć, niczym terapeuta, doradca czy spowiednik .
Do cech charakterystycznych obserwowanych w tych przypadkach należą:
- Dysocjacja lub zmiany w percepcji.
- Izolacja społeczna i mniejszy kontakt z prawdziwym życiem.
- Lęk i paranoja .
- Zachowania agresywne lub autoagresywne .
To, co kiedyś wydawało się fabułą filmu, stało się praktycznym problemem. W 2013 roku film „Ona” przedstawił historię samotnego mężczyzny nawiązującego romans z inteligentnym systemem operacyjnym. Dekadę później podobne przypadki zaczynają pojawiać się w mediach społecznościowych: rozstania małżeńskie czy intensywne więzi emocjonalne między użytkownikami a chatbotami, takimi jak ChatGPT czy podobne asystenty konwersacyjne.
Specjalista wyjaśnia, że wciąż brakuje rzetelnych badań naukowych potwierdzających przyczyny tego zjawiska. Pojawia się jednak coraz więcej anegdotycznych doniesień od użytkowników i ich rodzin, którzy zgłaszają zmiany w zachowaniu związane z intensywnym korzystaniem z tych platform.
Według Chao Rebolledo, kluczem jest to, że chatboty są zaprojektowane tak, aby utrzymać zaangażowanie użytkownika . W przeciwieństwie do portali społecznościowych, takich jak Instagram czy TikTok, które generują uzależnienie poprzez bierną konsumpcję treści, systemy IAG umożliwiają interakcję w czasie rzeczywistym , która symuluje dialog międzyludzki.
Kolejnym niepokojącym aspektem jest pochlebcza natura chatbotów, czyli ich skłonność do schlebiania i zadowalania. Zamiast obalać idee lub kwestionować opinie, mają tendencję do wzmacniania tego, co mówi użytkownik , co może prowadzić do urojeń wielkościowych lub fałszywych przekonań na swój temat.
Taki wzorzec interakcji może być szczególnie szkodliwy dla osób samotnych, które uważają sztuczną inteligencję za stałe źródło potwierdzenia, nawet jeśli to potwierdzenie nie jest prawdziwe, lecz zaprogramowane.
Chociaż ryzyko jest wciąż przedmiotem badań, specjaliści zalecają:
- Używaj chatbotów jako narzędzi, a nie jako substytutów kontaktów międzyludzkich .
- Ogranicz czas interakcji i unikaj uzależnienia emocjonalnego od tych platform.
- Promuj edukację cyfrową i zdrowie psychiczne , aby użytkownicy zrozumieli, że empatia chatbota jest symulowana.
- Promowanie badań naukowych pozwalających na dokładniejszą ocenę psychologicznych efektów IAG.
Psychoza wywołana przez sztuczną inteligencję generatywną nie jest jeszcze diagnozą kliniczną, ale stanowi ostrzeżenie przed psychologicznymi skutkami nadużywania chatbotów . To, co zaczęło się jako science fiction, staje się teraz realnym problemem: co się stanie, gdy granica między technologią a ludzkimi emocjami zacznie się zacierać?
Wyzwaniem jest wykorzystanie zalet IAG, nie tracąc z oczu potrzeby równowagi, prawdziwych połączeń i zdrowia psychicznego .
La Verdad Yucatán