Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- KI als Psychotherapeut: Auf der Couch mit ChatGPT
> Immer mehr Menschen versuchen, ChatGPT zu ihrer Psychotherapeutin zu
> machen. Kann KI fehlende Therapieplätze ersetzen?
Bild: Spricht Sigmund Freud hier auch mit einer künstlichen Version seiner sel…
„Ich mache seit gestern Therapie mit ChatGPT – und es hat mein Leben
verändert“, beginnt die Frau auf dem Sofa in ihrem Tiktok-Video ihren
Erfahrungsbericht. Einmal „komplett Trauma dumpen“, schwärmt eine andere,
die sich gerade die Haare bindet und seit zehn Tagen mit ChatGPT chattet.
Der KI ungefiltert alle Sorgen und Probleme schildern, dann eine Anweisung,
also den „Prompt“, abschicken und schon scheint sich die Welt ein Stück zu
sortieren.
Momentan vertrauen immer mehr Menschen, vor allem junge, ihre Psyche der KI
an. Besonders oft betonen die Nutzer*innen, wie erstaunlich leicht es
fällt, sich der KI zu öffnen: kein Schamgefühl, keine Angst vor Bewertung.
Was sich in den Erfahrungsberichten ebenfalls zeigt: Während Freunde,
Familie und Bekannte mit den Problemen junger Menschen oft überfordert
wirken oder mit Floskeln wie „Wird schon wieder“ reagieren, liefert ChatGPT
laut den Usern strukturierte Rückmeldungen und Lösungsansätze.
Die Möglichkeiten, mit Hilfe von KI-„Therapie“ die eigene Psyche zu
erkunden, scheinen auf den ersten Blick vielfältig zu sein. Content Creator
nutzen für ihre „Sitzungen“ mit ChatGPT einen vorgeschriebenen Prompt und
empfehlen ihn anschließend ihren Followern via Screenshot weiter.
Besonders beliebt auf Tiktok ist derzeit der Prompt, den auch die Sofa-Frau
beschreibt: „Du kombinierst Psychoanalyse mit Verhaltenstherapie. Du
stellst gezielte, klare Fragen, die mir helfen zu erkennen, was mich
beschäftigt. Du gibst mir Erklärungen und spürst, wann es wichtig ist,
Zusammenhänge für mich sichtbar zu machen. Du bist provokant, wenn es hilft
– nicht verletzend, sondern konfrontierend, damit ich mich selbst
hinterfrage. Gleichzeitig kannst du sehr einfühlsam sein und mich
auffangen.“
## Chatverläufe für ChatGPT
Andere Nutzer*innen geben der KI komplette Chatverläufe, etwa mit
Freund*innen, Verflossenen, Eltern oder Vorgesetzten zur Analyse. Sie
wollen an sich arbeiten oder wissen, ob ChatGPT toxische Strukturen
erkennt, das Gegenüber manipuliert, Erwartungen projiziert oder spiegelt.
Das Ergebnis für einen User: „Das stimmt einfach so krass. Seit ich
Therapie mit ChatGPT mache, geht es mir so viel besser.“
Kann die KI-„Therapie“ also dort helfen oder zumindest ergänzen, wo das
Gesundheitssystem versagt? Denn wer keinen privaten Versicherungsschutz
genießt und einen Therapieplatz sucht, hat es schwer. [1][Psychotherapie
auf Kassenbasis ist knapp – Wartezeiten von mehreren Monaten sind die
Regel].
Derweil zeigen diverse Umfragen der vergangenen Jahre: Immer mehr junge
Menschen haben ein großes Bedürfnis nach emotionaler Unterstützung,
besonders seit der Coronapandemie. Das Problem ist in der Politik längst
bekannt, doch große strukturelle Veränderungen blieben bislang aus.
ChatGPT, unermüdlich, anonym und rund um die Uhr erreichbar, bietet
Hilfesuchenden dagegen eine niedrigschwellige Lösung.
## Kombination aus KI und Therapie
Christina Jochim, Psychologische Psychotherapeutin in Berlin und
stellvertretende Bundesvorsitzende der Deutschen Psychotherapeuten
Vereinigung (DPtV), kennt das Phänomen, dass Menschen psychologische Hilfe
bei ChatGPT suchen. „Die ersten Fragen dazu, wie KI die Psychotherapie
verändern wird, kamen schon vor zwei Jahren auf, vor allem in den USA.
Mittlerweile ist das Thema, nicht zuletzt durch Social Media, deutlich
präsenter geworden“, sagt sie. In der Fachwelt sei der Einsatz von KI in
der Psychotherapie bereits üblich – allerdings mit speziell dafür
programmierten Chatbots, zum Beispiel im Rahmen von Blended-Care-Ansätzen,
Behandlungskonzepten, die die klassische Vor-Ort-Psychotherapie mit
Internet- und mobilbasierten Anwendungen kombinieren.
Diese KI-Chatbots kommen beispielsweise zur Emotionserkennung oder zur
Analyse von Mustern in der Stimmfarbe und Sprechweise der Patient*innen
zum Einsatz. Durch diese Algorithmen sei es bereits möglich, diagnostische
Vorschläge zu machen oder Muster zu erkennen, erklärt Jochim, allerdings
bisher ausschließlich im Kontext der Forschung, nicht in der
therapeutischen Praxis.
„Doch im Gegensatz zu diesen KI-Anwendungen, die für medizinische Zwecke
und mit medizinischen Daten trainiert werden, analysiert ChatGPT als
sprachbasiertes System Texte, also die Beziehungen zwischen Wörtern und
Sätzen. Eine Antwort von ChatGPT ist eine auf Wahrscheinlichkeit basierende
Abfolge von Wörtern, keine Wissenschaft oder gar Diagnose.“
## „Interessant, aber keine Psychotherapie“
Prompts, von denen sich viele eine konstruktive Analyse ihrer Gedanken und
Gefühle versprechen, seien dennoch spannend: „Für Laien bieten sie eine
Anleitung zur Selbstreflexion, regen durch Frage-Antwort-Formate zum
Nachdenken an. Aber wir neigen stark dazu, Beratung, Coaching und
Psychotherapie zu verwechseln. Was ChatGPT da leistet, ist interessant –
aber es ist keine Psychotherapie.“
Zwischen den vielen Erfahrungsberichten auf Tiktok, in denen junge Menschen
von ChatGPT als Therapeut und Helfer schwärmen, beginnen auch die Ersten zu
zweifeln und raten davon ab. So kommentiert eine Userin unter einem
Beitrag: „Ich habe ChatGPT monatelang genutzt, um über ein bestimmtes Thema
zu sprechen.“
Anfangs habe das geholfen, Gedanken einzuordnen, berichtet sie. „Ich hätte
ChatGPT damals bis aufs Blut verteidigt.“ Doch heute denke sie anders. „Ich
drehe mich nur noch im Kreis. Und wenn ich bei jedem Gedanken denke: Das
muss ich sofort ChatGPT erzählen, ist für mich eine Grenze erreicht.“ Ihr
Fazit: Es kann punktuell helfen, sobald man es aber mit einer Therapie
verwechsle, werde es gefährlich.
Laut Jochim stößt ChatGPT schnell an eine Grenze, da es auf einem
sogenannten Bestätigungsalgorithmus basiere – also so programmiert sei,
dass er User zunächst bestätigt und bestärkt. Eine „Therapie“ mit ChatGPT
unterscheidet sich laut Jochim daher kaum von Scrolling auf Instagram, denn
auch dort gehe es darum, Verhalten zu bestätigen und passende Inhalte
auszuspielen.
Mit echter Psychotherapie habe das wenig zu tun, so Jochim. „In der
Therapie geht es nicht nur um bestärkende Erfahrungen, die man auch durch
Empowerment oder Selbstoptimierung erfahren kann, sondern auch um
schmerzhafte, unbequeme Konfrontationen mit sich selbst. Es ist also
entscheidend, ob jemand gerade reflektieren möchte oder sich in einer Krise
befindet.“ Was ChatGPT macht, ist laut der Expertin vergleichbar mit einem
Coaching.
Dennoch nutzen viele Menschen ChatGPT gerade in emotionalen Notsituationen.
Die KI wird dann zu einem virtuellen Gegenüber – jemandem, dem man sich
anvertrauen kann. „Deshalb ist Digitalkompetenz so wichtig“, betont sie.
„ChatGPT ist eine Software, die so tut, als würde sie uns verstehen. Sie
kann uns sehr gut imitieren – und genau das berührt uns. Je besser sie
imitiert, desto mehr sind wir bereit, eine pseudomenschliche Beziehung
einzugehen. Und diese kann durchaus einnehmend sein. Ich sehe dabei die
Gefahr einer Realitätsverzerrung.“
Zudem warnt sie: „KI macht Fehler, das wissen wir. Und wer haftet, wenn
etwas schiefläuft?“ Fälle, in denen Chatbots Suizidgedanken bestätigten
oder Essstörungen bestärkten, gibt es bereits, doch Antworten auf diese
Frage fehlen bisher. Die ersten Prozesse zu diesen Fällen laufen gerade
erst an, [2][wie der um den Suizid eines 14-Jährigen, der davor intensiv
mit einer KI gechattet hat]. Mit schnellen Urteilen ist aber nicht zu
rechnen.
## Eine Aufgabe für die ganze Gesellschaft
Christina Jochim geht davon aus, dass der Einsatz von künstlicher
Intelligenz als vermeintliche alternative Therapieform in Zukunft weiter
zunehmen wird. Eine einfache Lösung für die komplexen Herausforderungen in
diesem Bereich gebe es jedoch nicht. „Die Faszination, etwas Menschliches
künstlich nachzubilden, war schon immer da. Doch ich glaube, das Ausmaß, in
dem KI unsere Gesellschaft, speziell im medizinischen Kontext, verändern
wird, ist uns noch gar nicht bewusst.“ Der Umgang damit sei eine
„gesamtgesellschaftliche Aufgabe“.
Jochim fordert deswegen, dass die Politik sich darauf konzentriert, die
gesundheitliche Versorgung langfristig zu sichern. Dazu zählt neben der
Ausweitung von Kassensitzen auch der gezielte Ausbau digitaler Angebote,
die stärkere Einbindung von Hausärztinnen und Hausärzten bei psychischen
Erkrankungen.
„Menschen verdienen echte Empathie und echtes Verständnis – kein Imitat“,
fordert Jochim. Potenzial für die KI im psychotherapeutischen Alltag sieht
sie eher in der Bürokratie: „Administrative Prozesse vereinfachen wäre ein
sinnvoller Einsatz.“
12 Jun 2025
## LINKS
[1] /Bessere-psychische-Versorgung/!6089796
[2] https://www.heise.de/news/KI-Text-keine-geschuetzte-Rede-US-Verfahren-zu-Su…
## AUTOREN
Giorgia Grimaldi
## TAGS
Schwerpunkt Künstliche Intelligenz
Sigmund Freud
Psychotherapie
Therapie
ChatGPT
Social Media
GNS
Lesestück Recherche und Reportage
TikTok
Zukunft
Schwerpunkt Künstliche Intelligenz
Feminismus
Social Media
## ARTIKEL ZUM THEMA
Feindbild für Trump-Anhänger: Tiktok-Superstar Khaby Lame muss die USA verlas…
Für rechte US-Influencer ist er ein „linksextremer Tiktoker“: 162 Millionen
Menschen folgen dem Italiener Khaby Lame. Die USA musste er nun verlassen.
Neue Kontaktlinsen: Warum Menschen bald wie Schlangen sehen könnten
Hightech-Linsen lassen Menschen Licht sehen, das sonst Schlangen und Bienen
vorbehalten ist. Mögliche Anwendungen reichen von Rettung bis Spionage.
KI in der Verwaltung: Ein Chatbot für den Notfall
In der Verwaltung hält Künstliche Intelligenz zunehmend Einzug.
Expert:innen fordern dabei mehr Transparenz – und verweisen auf ein
Vorbild.
Künstliche Intelligenz und Arbeit: Der Feind ist nicht die KI
KI bedroht vor allem die Arbeitsplätze von Frauen. Allein auf
Weiterbildungen zu setzen, ist nicht die Lösung. Wir müssen auch ans Thema
Care-Arbeit.
„We listen and we don't judge“: Viraler Beichtstuhl
Beim Social Media Trend „We listen and we don't judge“ hört man sich
Schuldbekenntnisse an, ohne zu urteilen. Aber geht es danach jemandem
besser?
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.