Исследование предупреждает, что половина молодых людей используют искусственный интеллект, чтобы говорить о своем психическом здоровье: вот риски, связанные с этим.
То, что изначально было инструментом для помощи с домашними заданиями или пересказа текстов, становится новым видом «цифрового доверенного лица». Исследование, проведённое в рамках программы психологии Университета Мануэлы Бельтран (UMB), показало, что половина молодых колумбийцев говорили — или хотят поговорить — с искусственным интеллектом (ИИ) о своём психическом здоровье.

Эксперты предупреждают, что эти «цифровые доверенные лица» не заменят психологическую поддержку. Фото: iStock
Согласно исследованию, 26% респондентов уже использовали такие инструменты, как ChatGPT или Gemini, чтобы рассказать о своих эмоциях, а ещё 26% планируют сделать это в будущем. В целом, 51% молодых людей готовы доверить свои самые сокровенные мысли машине.
«Молодёжь использует ИИ для обсуждения вопросов психического здоровья, потому что это доступно, позволяет меньше осуждать и обеспечивает анонимность», — пояснил исследователь Ханс Асеро, эксперт программы психологии в Университете города Мэн (UMB). «С их точки зрения, дешевле обратиться к искусственному интеллекту, чем к профессионалу».
Эмоциональный феномен, а не только технологический По мнению исследователей, эта тенденция обусловлена не только любопытством и желанием попробовать новые технологии, но и изменением в подходе молодого поколения к управлению своим эмоциональным благополучием. «ИИ становится инструментом, предлагающим людям мгновенную связь: он не осуждает, не взимает плату, не требует предварительной записи. Именно поэтому его применение расширяется, включая прямые консультации по вопросам эмоций или психического здоровья», — добавил Асеро.
Среди наиболее часто задаваемых тем — тревожность, грусть, борьба со стрессом и проблемы с самооценкой. 19,2% молодых людей ищут совета о том, как снизить тревожность на публике или справиться с академическими разочарованиями; 15,7% интересуются сном или релаксацией; а 14,7% спрашивают о различиях между стрессом, грустью, тревогой и ностальгией.
В исследовании также изучалось, насколько надежными молодые люди считают ответы, которые они получают от искусственного интеллекта. 37% респондентов заявили, что следуют советам только в том случае, если проверяют их с человеком; 32% следуют им, если они «звучат логично»; а 30% заявили, что не доверяют ИИ и предпочитают разговаривать с реальным человеком.

26% молодых людей уже использовали такие инструменты, как ChatGPT или Gemini, чтобы рассказать о своих эмоциях. Фото: iStock
Несмотря на эту кажущуюся осторожность, одна статистика имеет решающее значение: 62% молодых людей признают, что машины не понимают человеческих эмоций, а просто имитируют их. Тем не менее, многие продолжают рассматривать их как быструю альтернативу дорогостоящим, редким консультациям или трудностям с доступом к специалистам по психическому здоровью.
73% тех, кто пользовался этими инструментами, делали это всего один или два раза, чтобы быстро выпустить пар. Основные причины выбора ИИ вместо психолога включают круглосуточную доступность (17,9%), анонимность и отсутствие суждений (13,6%), низкую или бесплатную стоимость (13,6%) и простое любопытство (12,7%).
Риски превращения ИИ в «терапевта» Исследователи из Университета Мануэлы Бельтран предупреждают, что, хотя искусственный интеллект может показаться средством немедленной помощи, он не может заменить профессиональное вмешательство. Среди наиболее серьёзных рисков — неспособность выявлять клинические состояния или риск суицида, возможность предоставления общих или неподходящих советов, а также полное отсутствие эмоциональной поддержки и последующего наблюдения.
Более того, они предупреждают об эффекте молчания: он усиливает эмоциональную изоляцию. «Вы говорите, но не устанавливаете связь», — резюмируется в отчёте, отмечая, что подобные разговоры с алгоритмами могут создавать иллюзию товарищества, не предлагая при этом реальной или эмпатической связи.

Исследование предупреждает о таких рисках, как изоляция и ложное чувство эмоциональной поддержки. Фото: iStock
Исследование не демонизирует использование ИИ, но подчёркивает необходимость его разумного применения. Эксперты рекомендуют использовать его только как инструмент для руководства, а не как замену терапии. Они также советуют всегда консультироваться со специалистом по поводу реакции, избегать его использования при ухудшении эмоций и, самое главное, не использовать его как единственный способ эмоциональной разрядки.
«ИИ реагирует, но не сопровождает», — заключает документ, подчеркивая, что эмоциональное благополучие требует человеческого присутствия, активного слушания и профессиональной поддержки.
Предупреждающие знаки В отчёте представлен список признаков, указывающих на необходимость обращения за реальной терапевтической помощью. К ним относятся грусть, тревога или раздражительность, которые длятся более двух недель; проблемы со сном, учёбой или общением; повторяющиеся мысли или чувство опустошенности; и, в особенности, мысли о самоповреждении или о том, что «всё бесполезно».
В таких случаях рекомендация ясна: не продолжать общение с ИИ, а обратиться к специалисту по психическому здоровью.
Исследование Университета Мануэлы Бельтран выводит на первый план растущее явление: цифровизацию эмоциональной разрядки. В эпоху эмпатических алгоритмов и виртуальных консультантов эксперты напоминают нам, что психическое здоровье остаётся неотъемлемой частью человеческой жизни.
Журналист по вопросам окружающей среды и здоровья
eltiempo


