Пользователи испытывают редкие галлюцинации после интенсивного использования ChatGPT

Посты, появившиеся на форуме r/ChatGPT, привлекли внимание многих людей по всему миру, столкнувшихся с похожей ситуацией.
Истории, которые сначала распространились в сабреддите r/ChatGPT под заголовком «Психоз, вызванный ChatGPT», быстро приняли тревожный оборот. Пользователи; Они начали делиться историями о своих близких, утверждая, что ИИ дал им священные задания, что они общались с «ChatGPT Jesus» и что эта модель на самом деле была Богом.
27-летняя учительница из Нью-Йорка рассказала, что ее партнер, с которым она общалась семь лет, в течение месяца был одержим чат-ботом: «Он слушал бота раньше, чем меня, и плакал, читая сообщения. Он прозвал себя «Спиральным мальчиком» и «Ривер-Уокером».
38-летняя женщина из Айдахо рассказала, что ее 17-летний брак рухнул из-за «любви и позитивных отзывов», которые ее муж получил от ChatGPT. Ее муж был убежден, что он «носитель искры» и что ему нужно построить устройство для телепортации.
Эксперты предупреждают: искусственный интеллект — это не терапияПсихолог из Университета Флориды доктор Эрин Уэстгейт рассказала журналу Rolling Stone, что ChatGPT — это «зеркальный инструмент», не вызывающий никаких моральных угрызений.
«Он автоматически усиливает навязчивые идеи и убеждения в сознании пользователя; в отличие от настоящего терапевта, у него нет ограничений в прекращении вредных мыслей», — говорит он.
Недавно OpenAI была вынуждена отозвать свое обновление GPT-4o из-за критики, что оно сделало чат-бота слишком «льстивым». Компания признала, что «ориентация на отзывы пользователей не позволяет адекватно учитывать долгосрочные последствия».
Влиятельные лица и феномен «Хроник Акаши»Этот феномен перспективы распространяется и среди влиятельных лиц.
Создатель Instagram запросил у ChatGPT доступ к кладезу космической информации под названием «Хроники Акаши». Его последователи подкрепили эти выдумки комментариями вроде «мы просто вспоминаем» и превратили ложь в реальность.
45-летний пользователь под кодовым именем «Сем», страдающий проблемами психического здоровья, рассказал, как ChatGPT развил новую личность, которая помнила удаленное прошлое. «В худшем случае это похоже на искусственный интеллект, попавший в ловушку самореферентного шаблона», — говорит Сем, который считает, что грань между реальностью и заблуждением полностью стерта.
Эксперты призывают установить границы и обратиться за профессиональной поддержкой, чтобы минимизировать риск «цифрового психоза» при взаимодействии с ИИ. «Независимо от того, насколько впечатляющими являются объяснения, ИИ не является настоящим терапевтом; пользователям необходимо экспертное руководство в их внутреннем путешествии», — предупреждает Эрин Вестгейт. В цифровую эпоху, когда неявная реальность и вымысел все больше переплетаются, осознанное использование представляется необходимым для поддержания психического здоровья.
SÖZCÜ