Eine Studie warnt davor, dass die Hälfte der jungen Menschen künstliche Intelligenz nutzt, um über ihre psychische Gesundheit zu sprechen: Dies sind die Risiken dabei.
Was als Hilfsmittel für Hausaufgaben oder zum Zusammenfassen von Texten begann, entwickelt sich zu einer neuen Art von „digitalem Vertrauten“. Eine Studie des Psychologieprogramms der Manuela Beltrán Universität (UMB) ergab, dass die Hälfte der jungen Kolumbianer bereits mit einer künstlichen Intelligenz (KI) über ihre psychische Gesundheit gesprochen hat oder sprechen möchte.

Experten warnen davor, dass diese „digitalen Vertrauten“ psychologische Unterstützung nicht ersetzen können. Foto: iStock
Laut der Studie haben 26 % der Befragten bereits Tools wie ChatGPT oder Gemini genutzt, um über ihre Gefühle zu sprechen, weitere 26 % planen dies in Zukunft. Insgesamt sind 51 % der jungen Menschen bereit, ihre intimsten Gedanken einer Maschine anzuvertrauen.
„Junge Menschen nutzen KI, um über psychische Gesundheit zu sprechen, weil sie zugänglich ist, weniger Werturteile zulässt und Anonymität bietet“, erklärte Forscher Hans Acero, Experte des Psychologieprogramms an der UMB. „Aus ihrer Sicht ist es günstiger, eine künstliche Intelligenz zu konsultieren als einen Therapeuten.“
Ein emotionales Phänomen, nicht nur ein technologisches. Für Forscher ist dieser Trend nicht allein der Neugierde auf neue Technologien geschuldet, sondern vielmehr einem Wandel im Umgang jüngerer Generationen mit ihrem emotionalen Wohlbefinden. „KI entwickelt sich zu einem Werkzeug, das Menschen unmittelbaren Kontakt ermöglicht: Sie urteilt nicht, sie ist kostenlos und erfordert keine Termine. Deshalb weitet sich ihr Einsatz auf direkte Beratungen zu Emotionen oder psychischen Problemen aus“, fügte Acero hinzu.
Zu den häufigsten Themen gehören Angstzustände, Traurigkeit, Stressbewältigung und Probleme mit dem Selbstwertgefühl. 19,2 % der jungen Menschen suchen Rat, wie sie ihre Angst in der Öffentlichkeit reduzieren oder mit Frustrationen im Studium umgehen können; 15,7 % erkundigen sich nach Schlaf oder Entspannung; und 14,7 % fragen nach den Unterschieden zwischen Stress, Traurigkeit, Angstzuständen und Nostalgie.
Die Studie untersuchte auch, wie zuverlässig junge Menschen die Antworten künstlicher Intelligenz einschätzen. 37 % der Befragten gaben an, den Rat nur dann zu befolgen, wenn sie ihn mit einem Menschen abklären; 32 % befolgen ihn, wenn er „logisch klingt“; und 30 % sagten, sie vertrauen KI nicht und bevorzugen das Gespräch mit einem Menschen.

26 % der jungen Menschen haben bereits Tools wie ChatGPT oder Gemini genutzt, um über ihre Gefühle zu sprechen. Foto: iStock
Trotz dieser scheinbaren Vorsicht ist eine Statistik entscheidend: 62 % der jungen Menschen geben zu, dass Maschinen menschliche Emotionen nicht verstehen, sondern sie lediglich simulieren. Dennoch sehen viele sie weiterhin als schnelle Alternative zu den Kosten, der Terminknappheit oder den Schwierigkeiten beim Zugang zu Psychotherapeuten.
73 % derjenigen, die diese Tools genutzt haben, taten dies nur ein- oder zweimal, um sich schnell Luft zu machen. Die Hauptgründe für die Wahl von KI gegenüber einem Psychologen sind die ständige Verfügbarkeit (17,9 %), Anonymität und Urteilsfreiheit (13,6 %), geringe oder kostenlose Kosten (13,6 %) sowie die schlichte Neugier, es auszuprobieren (12,7 %).
Risiken der Umwandlung von KI in einen „Therapeuten“ Forscher der Manuela-Beltrán-Universität warnen davor, dass künstliche Intelligenz zwar kurzfristig hilfreich erscheinen mag, aber professionelle Hilfe nicht ersetzen kann. Zu den gravierendsten Risiken zählen die Unfähigkeit, klinische Zustände oder Suizidgefährdung zu erkennen, die Möglichkeit, allgemeine oder ungeeignete Ratschläge zu geben, und das völlige Fehlen emotionaler Unterstützung oder Nachsorge.
Darüber hinaus warnen sie vor einem stillen Nebeneffekt: Er verstärkt die emotionale Isolation. „Man redet zwar, aber es entsteht keine Verbindung“, fasst der Bericht zusammen und merkt an, dass diese Gespräche mit Algorithmen die Illusion von Kameradschaft erzeugen können, ohne eine echte oder empathische Beziehung herzustellen.

Die Studie warnt vor Risiken wie Isolation und einem falschen Gefühl emotionaler Unterstützung. Foto: iStock
Die Studie verteufelt den Einsatz von KI nicht, betont aber die Notwendigkeit eines umsichtigen Gebrauchs. Experten empfehlen, sie lediglich als Hilfsmittel zu nutzen, niemals als Ersatz für eine Therapie. Sie raten außerdem dazu, die Reaktionen stets mit einem Experten zu besprechen, die Nutzung zu vermeiden, wenn sich die Emotionen verschlimmern, und sie vor allem nicht zum einzigen Ventil für emotionale Belastungen zu machen.
„KI reagiert, begleitet aber nicht“, so das Fazit des Dokuments. Es wird betont, dass emotionales Wohlbefinden menschliche Präsenz, aktives Zuhören und professionelle Unterstützung erfordert.
Warnschilder Der Bericht enthält eine Liste von Anzeichen, die darauf hinweisen, wann es notwendig ist, professionelle therapeutische Hilfe in Anspruch zu nehmen. Dazu gehören Traurigkeit, Angstzustände oder Reizbarkeit, die länger als zwei Wochen anhalten; Schlaf-, Lern- oder soziale Probleme; wiederkehrende Gedanken oder ein Gefühl der Leere; und insbesondere Gedanken an Selbstverletzung oder das Gefühl, dass „nichts mehr Sinn hat“.
In solchen Fällen ist die Empfehlung eindeutig: Sprechen Sie nicht weiter mit der KI, sondern wenden Sie sich an einen Psychiater oder Psychotherapeuten.
Forschungen der Manuela-Beltrán-Universität rücken ein wachsendes Phänomen in den Vordergrund: die Digitalisierung des emotionalen Ausdrucks. In Zeiten empathischer Algorithmen und virtueller Berater erinnern Experten daran, dass psychische Gesundheit ein zutiefst menschlicher Bereich bleibt.
Journalist für Umwelt und Gesundheit
eltiempo


