Badania ostrzegają, że połowa młodych ludzi korzysta ze sztucznej inteligencji, aby rozmawiać o swoim zdrowiu psychicznym: oto zagrożenia, jakie się z tym wiążą
To, co początkowo było narzędziem do pomocy w odrabianiu prac domowych lub streszczaniu tekstów, staje się nowym rodzajem „cyfrowego powiernika”. Badanie przeprowadzone przez Program Psychologii Uniwersytetu Manuela Beltrán (UMB) wykazało, że połowa młodych Kolumbijczyków rozmawiała – lub chce rozmawiać – ze sztuczną inteligencją (AI) na temat swojego zdrowia psychicznego.

Eksperci ostrzegają, że ci „cyfrowi powiernicy” nie zastępują wsparcia psychologicznego. Zdjęcie: iStock
Według badań, 26% respondentów korzystało już z narzędzi takich jak ChatGPT czy Gemini, aby rozmawiać o swoich emocjach, a kolejne 26% planuje to zrobić w przyszłości. Ogółem 51% młodych ludzi jest gotowych powierzyć swoje najbardziej intymne myśli maszynie.
„Młodzi ludzie korzystają ze sztucznej inteligencji, rozmawiając o zdrowiu psychicznym, ponieważ jest ona przystępna, pozwala na mniejszą liczbę osądów i zapewnia anonimowość” – wyjaśnia badacz Hans Acero, ekspert z Programu Psychologicznego Uniwersytetu Medycznego w Nowym Jorku (UMB). „Z ich perspektywy konsultacja ze sztuczną inteligencją jest tańsza niż konsultacja ze specjalistą”.
Zjawisko emocjonalne, nie tylko technologiczne Dla badaczy ten trend nie wynika wyłącznie z ciekawości związanej z nowymi technologiami, ale raczej ze zmiany w sposobie, w jaki młodsze pokolenia dbają o swoje samopoczucie emocjonalne. „Sztuczna inteligencja staje się narzędziem, które oferuje ludziom natychmiastowy kontakt: nie ocenia, nie pobiera opłat, nie wymaga umawiania wizyt. Dlatego jej zastosowanie rozszerza się o bezpośrednie konsultacje dotyczące emocji lub problemów ze zdrowiem psychicznym” – dodał Acero.
Do najczęściej poruszanych tematów należą lęk, smutek, radzenie sobie ze stresem i problemy z poczuciem własnej wartości. 19,2% młodych ludzi szuka porady, jak radzić sobie z lękiem w miejscach publicznych lub frustracjami związanymi z nauką; 15,7% pyta o sen i relaks; a 14,7% pyta o różnice między stresem, smutkiem, lękiem i nostalgią.
W badaniu sprawdzono również, jak wiarygodni młodzi ludzie odbierają odpowiedzi otrzymywane od sztucznej inteligencji. 37% respondentów stwierdziło, że stosuje się do rad tylko po ich zweryfikowaniu przez człowieka; 32% stosuje się do nich, jeśli „brzmią logicznie”; a 30% stwierdziło, że nie ufa sztucznej inteligencji i woli porozmawiać z prawdziwą osobą.

26% młodych ludzi korzystało już z narzędzi takich jak ChatGPT czy Gemini, aby rozmawiać o swoich emocjach. Zdjęcie: iStock
Pomimo tej pozornej ostrożności, jedna statystyka jest kluczowa: 62% młodych ludzi przyznaje, że maszyny nie rozumieją ludzkich emocji, a jedynie je symulują. Jednak wielu nadal postrzega je jako szybką alternatywę dla kosztów, ograniczonej liczby wizyt lub utrudnionego dostępu do specjalistów zdrowia psychicznego.
73% osób, które skorzystały z tych narzędzi, zrobiło to tylko raz lub dwa razy, aby szybko się wyładować. Główne powody wyboru sztucznej inteligencji zamiast psychologa to całodobowa dostępność (17,9%), anonimowość i brak osądu (13,6%), obniżona lub bezpłatna cena (13,6%) oraz zwykła ciekawość, by wypróbować sztuczną inteligencję (12,7%).
Ryzyko przekształcenia sztucznej inteligencji w „terapeutę” Naukowcy z Uniwersytetu Manueli Beltrán ostrzegają, że choć sztuczna inteligencja może wydawać się natychmiastową pomocą, nie może zastąpić profesjonalnej interwencji. Do najpoważniejszych zagrożeń należą: niezdolność do wykrywania schorzeń klinicznych lub ryzyka samobójstwa, możliwość udzielenia ogólnikowej lub niewłaściwej porady oraz całkowity brak wsparcia emocjonalnego lub dalszej opieki.
Co więcej, ostrzegają przed cichym efektem: wzmacnia on izolację emocjonalną. „Rozmawiasz, ale nie nawiązujesz kontaktu” – podsumowuje raport, zauważając, że rozmowy z algorytmami mogą stwarzać iluzję towarzystwa, nie oferując prawdziwej ani empatycznej więzi.

Badanie ostrzega przed zagrożeniami, takimi jak izolacja i fałszywe poczucie wsparcia emocjonalnego. Zdjęcie: iStock
Badanie nie demonizuje stosowania sztucznej inteligencji, ale podkreśla potrzebę jej rozsądnego stosowania. Eksperci zalecają korzystanie z niej wyłącznie jako narzędzia wspomagającego, a nie jako substytutu terapii. Sugerują również, aby zawsze konsultować reakcje ze specjalistą, unikać jej stosowania w przypadku nasilenia się emocji, a przede wszystkim nie traktować jej jako jedynego sposobu na rozładowanie emocji.
„Sztuczna inteligencja reaguje, ale nie towarzyszy” – podsumowuje dokument, podkreślając, że dobre samopoczucie emocjonalne wymaga obecności człowieka, aktywnego słuchania i profesjonalnego wsparcia.
Znaki ostrzegawcze Raport zawiera listę objawów wskazujących na konieczność szukania prawdziwej pomocy terapeutycznej. Należą do nich: smutek, lęk lub drażliwość utrzymujące się dłużej niż dwa tygodnie; problemy ze snem, nauką lub kontaktami społecznymi; nawracające myśli lub uczucie pustki; a zwłaszcza myśli o samookaleczeniu lub o tym, że „nic nie jest warte”.
W takich przypadkach zalecenie jest jasne: nie należy kontynuować rozmowy ze sztuczną inteligencją, lecz udać się do specjalisty zdrowia psychicznego.
Badania Uniwersytetu Manueli Beltrán ujawniają rosnące zjawisko: digitalizację uwalniania emocji. W czasach empatycznych algorytmów i wirtualnych doradców, eksperci przypominają nam, że zdrowie psychiczne pozostaje głęboko ludzką domeną.
Dziennikarz zajmujący się środowiskiem i zdrowiem
eltiempo


