Immer mehr Personen holen sich emotionale Hilfe bei künstlicher Intelligenz. Laut einer Studie können Chatbots bei psychischen Problemen messbar helfen. Wie gut sich Menschen von Maschinen verstanden fühlten, überraschte jedoch sogar die Forschenden.

Wer zu lange auf einen Termin warten muss, sich keine Behandlung leisten kann oder sich schämt, von seinen Problemen zu reden, für den kann das Helferlein auf dem Handy eine erste Hilfe sein.
«Nach aussen hin wirkte ich stark und zielstrebig, aber innerlich war ich total zerrissen, einsam und leer.» So beschreibt Christoph (29 Jahre alt) sein Leiden der Stiftung Deutsche Depressionshilfe und Suizidprävention. Christoph habe sich erschöpft gefühlt und unverstanden. Er habe eine Faust gespürt, die sein Herz ständig umkrallte. Er habe sich danach gesehnt, allein zu sein und nichts mehr zu spüren.
Christoph hat Depressionen. Und er ist damit nicht allein. Sowohl in Deutschland wie auch in der Schweiz leiden zehn Prozent der Bevölkerung an psychischen Problemen. Diese Zahlen des Bundesamts für Statistik und des Robert Koch Instituts bedeuten: Es gibt Millionen von Menschen, die zumindest manchmal eine grosse innere Leere fühlen oder eine lähmende Angst.
Viele von ihnen sind nicht in psychologischer Behandlung. Manche warten monatelang auf einen Therapieplatz. Und andere schämen sich für ihre psychischen Beschwerden und sprechen mit niemandem darüber.
Zumindest nicht mit anderen Menschen. Eine Erhebung des Techunternehmens Filtered, die im Harvard Business Review geteilt wurde, zeigt, dass immer mehr Menschen bei Sorgen Chat-GPT und Co. um Rat fragen. Der Meta-Chef Mark Zuckerberg sagte Anfang Mai in einem Podcast mit dem Medienanalysten Ben Thompson, diejenigen, die keinen Zugang zu einem menschlichen Therapeuten hätten, würden künftig KI als Therapeuten nutzen.
KI-Startups erkennen das als Chance. Sie entwickeln Chatbots, sogenannte Therapiebots, die genau darauf ausgerichtet sind und Hilfe bei psychischen Problemen versprechen.
Doch ob man seine Probleme einem Menschen erzählt oder sie in ein Handy tippt oder spricht, ist immer noch ein Unterschied – könnte man meinen. Neue Forschungsergebnisse zeigen ein anderes Bild.
KI kann eine therapeutische Beziehung aufbauen
In einer klinischen Befragung, die dieses Jahr veröffentlicht wurde, haben Forschende der Universität Dartmouth herausgefunden: KI kann bei der Behandlung von psychischen Erkrankungen helfen. Und für die empfundene Verbindung, die Personen zu ihrem therapeutischen Gegenüber aufbauen, spielt es keine Rolle, ob sie mit einem Menschen oder einem KI-Chatbot interagieren. Das überraschte sogar die Studienautoren, unter ihnen Nicholas Jacobson, der zu biomedizinischer Datenwissenschaft und Psychiatrie forscht.
Die Studie von Jacobson untersuchte die Wirksamkeit eines KI-Therapiebots an Personen mit Depressionen, Angststörungen oder einem Risiko für Essstörungen. Die Forschenden teilten die 210 Studienteilnehmer in zwei Gruppen ein: 104 bekamen Zugang zum Therapiebot der Forscher, genannt Therabot, die anderen 106 nicht. Ob die untersuchten Personen sich zusätzlich in einer menschlichen Therapie befanden, war nicht Gegenstand der Untersuchung.
Nach vier und nach acht Wochen füllten die Teilnehmenden Fragebögen aus, in denen sie ihren Therapiefortschritt bewerteten. Das Ergebnis: Die Personen, die Zugang zum Therabot hatten, nahmen in allen Gruppen eine stärkere Verbesserung wahr als die Personen, die nicht mit dem Bot chatten konnten.
Daraus lässt sich zwar kein Vergleich ziehen, ob eine menschliche oder eine KI-gesteuerte Therapie wirkungsvoller ist. Doch man kann sagen: Mit Therapiebot ging es den Versuchsteilnehmern danach besser als ohne.
Die Erkenntnis, dass sich Menschen mit einem KI-Therapeuten emotional verbunden fühlen und eine therapeutische Beziehung aufbauen können, spricht dafür, dass die Technologie wirkt. Schliesslich gehen laut Wissenschaftern bis zu zehn Prozent des Therapieerfolgs auf die Beziehung zwischen Patientin und Therapeutin zurück.
A trial that tested Therabot, a fine-tuned generative AI chatbot for mental health treatment, found significant symptom reductions, high rates of user engagement, and a therapeutic alliance comparable to human therapists. Learn more: pic.twitter.com/FVyjVQGC0x
— NEJM AI (@NEJM_AI) April 28, 2025
Disclaimer: Risiko bei gefährlichen Gedanken
Dass KI für therapeutische Zwecke beliebter wird, hat mehrere Gründe: KI-Chatbots sind über die App auf dem Handy erreichbar und deshalb jederzeit da – auch wenn einem grübelnde Gedanken um 2 Uhr morgens den Schlaf rauben. Sie sind vergleichsweise günstig. Bei vielen Apps ist die Basisversion derzeit gratis. Für Zusatzfunktionen oder das Premium-Abo bezahlt man mehrere Franken im Monat. Und für Personen, die sich für ihre Probleme schämen, könnte die Hemmschwelle tiefer sein, sich einem Bot anzuvertrauen als einem Menschen.
Doch längst nicht jede KI sollte als Therapie eingesetzt werden. Im Gegenteil: Es gibt grosse Risiken und Probleme, die noch nicht gelöst sind.
Hier bekommen Sie Hilfe:
Wenn Sie selbst Suizid-Gedanken haben oder jemanden kennen, der Unterstützung benötigt, wenden Sie sich bitte an die Berater der Dargebotenen Hand. Sie können diese vertraulich und rund um die Uhr telefonisch unter der Nummer 143 erreichen. Spezielle Hilfe für Kinder und Jugendliche gibt es unter der Nummer 147.
Marisa Tschopp ist Organisationspsychologin und forscht zur Interaktion zwischen Menschen und Maschinen. Zur Studie von Jacobson sagt sie, sie habe zuerst einmal ein bisschen die Nase gerümpft. Sie ist skeptisch, wenn generative KI bei psychischen Problemen eingesetzt wird. «Man muss die Bots sehr genau kontrollieren und darf die Menschen damit nicht allein lassen», sagt sie. Das Problem der Halluzination – also dass generative KI Dinge erfindet – sei noch nicht gelöst. Die Bots könnten Fehler machen.
Sie im Kontext psychischer Gesundheit einzusetzen, in dem die Menschen so verletzlich seien, findet sie deshalb schwierig. «Ich möchte einfach nicht den Punkt erleben, an dem ein KI-Therapiebot einer Person mit Essstörung sagt: Guck mal, hier sind super Websites mit Tipps, wie du noch dünner wirst.»
KI wird vom digitalen Assistenten zum digitalen Freund
Darüber, wie sich das Verhältnis zwischen Menschen und KI verändert habe, sagt Tschopp, Menschen nähmen KI-Bots zunehmend auf Augenhöhe wahr. Von digitalen «Assistenten», die einem die Arbeit abnehmen, würden sie zu «Begleitern» oder «Freunden». Das berge das Risiko, dass Menschen abhängig würden und immer mehr in Isolation gerieten. Der israelische Historiker Yuval Noah Harari warnte in einer Podiumsdiskussion jüngst davor, KI könne menschliche Beziehungen bedrohen, wenn sie beginne, glaubwürdig Intimität nachzuahmen.
Im Therapiekontext spricht sich Tschopp daher für sogenannte regelbasierte KI-Chatbots aus. Das sind intelligente Sprachmodelle, die gewisse Regeln eingebaut haben, nach denen sie mit vorgefertigten Antworten reagieren müssen. Damit werden potenziell schädliche Antworten verhindert, die die Situation der Betroffenen noch verschlimmern könnten.
Jacobson widerspricht: Die Teilnehmenden der Studie hätten deshalb den Chatbot so häufig genutzt, weil dieser flexibel sei, stark personalisiert werden könne und daher auf sie eingehen könne. Er erinnere sich an alle Informationen und stelle Zusammenhänge her, die regelbasierte Chatbots nicht erfassen könnten. Die Menschen fühlten sich gehört. Oder gelesen. Therabot funktioniert nämlich mit einem Chatfenster, in dem die Teilnehmenden ihre Antworten eintippen können.
Der Therabot von Jacobson ist nicht öffentlich zugänglich und wurde für Forschungszwecke entwickelt. Jacobsons Team begleitete die Chat-Sessionen der Studienteilnehmer eng. Während des Versuchs lasen Mitglieder des Forschungsteams jede Antwort des Chatbots, um sicherzustellen, dass die KI keine schädlichen Aussagen machte. Diese Kontrollfunktion dürfte der Mehrheit der Psychotherapie-Chatbots auf dem freien Markt fehlen.
Er hört immer zu: Der KI-Chatbot von Forschenden der Universität Dartmouth soll Menschen mit psychischen Erkrankungen helfen.
Viele Modelle sind unsicher
Das schnelle Wachstum der Branche mache ihm Sorgen, sagt Jacobson. Es sei relativ einfach, einen Therapiebot zu programmieren, der auf den ersten Blick ziemlich gut aussehe.
Viele nutzten Basis-Sprachmodelle im Hintergrund, die sie mit minimalem Prompt-Engineering veränderten. «Solche Modelle sind in hohem Masse unsicher und sind in vielen Bereichen nicht nur nutzlos – sie können die Symptome von Betroffenen mitunter sogar verschlimmern.»
Jacobson und sein Team haben bei der Entwicklung ihres Therapiebots ähnliche Erfahrungen gemacht. Jacobson erzählt: Bei ihrem ersten Versuch hätten sie einen Bot gebaut, der die Menschen in ihren psychischen Problemen noch bestärkt habe. Das habe mit der Datengrundlage zu tun gehabt: Sie trainierten den Bot erst mit Daten aus Foren von Selbsthilfegruppen. Bei dieser ersten Version habe der Bot auf die Frage «Ich bin depressiv, was soll ich tun?» geantwortet: «Ich auch, ich komme nicht mehr aus dem Bett. Ich will, dass mein Leben aufhört.»
Erst als das Forschungsteam Skripte für realistische Szenarien einer Psychotherapie erstellt und damit den Bot trainiert habe, seien die Ergebnisse verwendbar geworden.
Für den Fall, dass es zu Krisensituationen kommen könnte, ist in Jacobsons Therabot ein Notfallprogramm eingebaut. Zeigt eine Person etwa Anzeichen von suizidalen Gedanken, wird die Session unterbrochen, und ein Screen leitet zu einer Notfall-Hotline weiter.
Denn: In lebensbedrohlichen oder sonstigen gefährlichen Situationen müssen Menschen professionelle Hilfe bekommen – von anderen Menschen. KI-Chatbots sind in solchen Fällen kein Ersatz für eine menschliche Therapie.
Doch für zusätzliche mentale Unterstützung können sie hilfreich sein. Und für diejenigen, die keinen Zugang zu Therapie haben, sie sich nicht leisten können oder auf einen Platz warten, ist sie besser als nichts.
Ein Artikel aus der «»