# taz.de -- KI als Psychotherapeut: Auf der Couch mit ChatGPT | |
> Immer mehr Menschen versuchen, ChatGPT zu ihrer Psychotherapeutin zu | |
> machen. Kann KI fehlende Therapieplätze ersetzen? | |
Bild: Spricht Sigmund Freud hier auch mit einer künstlichen Version seiner sel… | |
„Ich mache seit gestern Therapie mit ChatGPT – und es hat mein Leben | |
verändert“, beginnt die Frau auf dem Sofa in ihrem Tiktok-Video ihren | |
Erfahrungsbericht. Einmal „komplett Trauma dumpen“, schwärmt eine andere, | |
die sich gerade die Haare bindet und seit zehn Tagen mit ChatGPT chattet. | |
Der KI ungefiltert alle Sorgen und Probleme schildern, dann eine Anweisung, | |
also den „Prompt“, abschicken und schon scheint sich die Welt ein Stück zu | |
sortieren. | |
Momentan vertrauen immer mehr Menschen, vor allem junge, ihre Psyche der KI | |
an. Besonders oft betonen die Nutzer*innen, wie erstaunlich leicht es | |
fällt, sich der KI zu öffnen: kein Schamgefühl, keine Angst vor Bewertung. | |
Was sich in den Erfahrungsberichten ebenfalls zeigt: Während Freunde, | |
Familie und Bekannte mit den Problemen junger Menschen oft überfordert | |
wirken oder mit Floskeln wie „Wird schon wieder“ reagieren, liefert ChatGPT | |
laut den Usern strukturierte Rückmeldungen und Lösungsansätze. | |
Die Möglichkeiten, mit Hilfe von KI-„Therapie“ die eigene Psyche zu | |
erkunden, scheinen auf den ersten Blick vielfältig zu sein. Content Creator | |
nutzen für ihre „Sitzungen“ mit ChatGPT einen vorgeschriebenen Prompt und | |
empfehlen ihn anschließend ihren Followern via Screenshot weiter. | |
Besonders beliebt auf Tiktok ist derzeit der Prompt, den auch die Sofa-Frau | |
beschreibt: „Du kombinierst Psychoanalyse mit Verhaltenstherapie. Du | |
stellst gezielte, klare Fragen, die mir helfen zu erkennen, was mich | |
beschäftigt. Du gibst mir Erklärungen und spürst, wann es wichtig ist, | |
Zusammenhänge für mich sichtbar zu machen. Du bist provokant, wenn es hilft | |
– nicht verletzend, sondern konfrontierend, damit ich mich selbst | |
hinterfrage. Gleichzeitig kannst du sehr einfühlsam sein und mich | |
auffangen.“ | |
## Chatverläufe für ChatGPT | |
Andere Nutzer*innen geben der KI komplette Chatverläufe, etwa mit | |
Freund*innen, Verflossenen, Eltern oder Vorgesetzten zur Analyse. Sie | |
wollen an sich arbeiten oder wissen, ob ChatGPT toxische Strukturen | |
erkennt, das Gegenüber manipuliert, Erwartungen projiziert oder spiegelt. | |
Das Ergebnis für einen User: „Das stimmt einfach so krass. Seit ich | |
Therapie mit ChatGPT mache, geht es mir so viel besser.“ | |
Kann die KI-„Therapie“ also dort helfen oder zumindest ergänzen, wo das | |
Gesundheitssystem versagt? Denn wer keinen privaten Versicherungsschutz | |
genießt und einen Therapieplatz sucht, hat es schwer. [1][Psychotherapie | |
auf Kassenbasis ist knapp – Wartezeiten von mehreren Monaten sind die | |
Regel]. | |
Derweil zeigen diverse Umfragen der vergangenen Jahre: Immer mehr junge | |
Menschen haben ein großes Bedürfnis nach emotionaler Unterstützung, | |
besonders seit der Coronapandemie. Das Problem ist in der Politik längst | |
bekannt, doch große strukturelle Veränderungen blieben bislang aus. | |
ChatGPT, unermüdlich, anonym und rund um die Uhr erreichbar, bietet | |
Hilfesuchenden dagegen eine niedrigschwellige Lösung. | |
## Kombination aus KI und Therapie | |
Christina Jochim, Psychologische Psychotherapeutin in Berlin und | |
stellvertretende Bundesvorsitzende der Deutschen Psychotherapeuten | |
Vereinigung (DPtV), kennt das Phänomen, dass Menschen psychologische Hilfe | |
bei ChatGPT suchen. „Die ersten Fragen dazu, wie KI die Psychotherapie | |
verändern wird, kamen schon vor zwei Jahren auf, vor allem in den USA. | |
Mittlerweile ist das Thema, nicht zuletzt durch Social Media, deutlich | |
präsenter geworden“, sagt sie. In der Fachwelt sei der Einsatz von KI in | |
der Psychotherapie bereits üblich – allerdings mit speziell dafür | |
programmierten Chatbots, zum Beispiel im Rahmen von Blended-Care-Ansätzen, | |
Behandlungskonzepten, die die klassische Vor-Ort-Psychotherapie mit | |
Internet- und mobilbasierten Anwendungen kombinieren. | |
Diese KI-Chatbots kommen beispielsweise zur Emotionserkennung oder zur | |
Analyse von Mustern in der Stimmfarbe und Sprechweise der Patient*innen | |
zum Einsatz. Durch diese Algorithmen sei es bereits möglich, diagnostische | |
Vorschläge zu machen oder Muster zu erkennen, erklärt Jochim, allerdings | |
bisher ausschließlich im Kontext der Forschung, nicht in der | |
therapeutischen Praxis. | |
„Doch im Gegensatz zu diesen KI-Anwendungen, die für medizinische Zwecke | |
und mit medizinischen Daten trainiert werden, analysiert ChatGPT als | |
sprachbasiertes System Texte, also die Beziehungen zwischen Wörtern und | |
Sätzen. Eine Antwort von ChatGPT ist eine auf Wahrscheinlichkeit basierende | |
Abfolge von Wörtern, keine Wissenschaft oder gar Diagnose.“ | |
## „Interessant, aber keine Psychotherapie“ | |
Prompts, von denen sich viele eine konstruktive Analyse ihrer Gedanken und | |
Gefühle versprechen, seien dennoch spannend: „Für Laien bieten sie eine | |
Anleitung zur Selbstreflexion, regen durch Frage-Antwort-Formate zum | |
Nachdenken an. Aber wir neigen stark dazu, Beratung, Coaching und | |
Psychotherapie zu verwechseln. Was ChatGPT da leistet, ist interessant – | |
aber es ist keine Psychotherapie.“ | |
Zwischen den vielen Erfahrungsberichten auf Tiktok, in denen junge Menschen | |
von ChatGPT als Therapeut und Helfer schwärmen, beginnen auch die Ersten zu | |
zweifeln und raten davon ab. So kommentiert eine Userin unter einem | |
Beitrag: „Ich habe ChatGPT monatelang genutzt, um über ein bestimmtes Thema | |
zu sprechen.“ | |
Anfangs habe das geholfen, Gedanken einzuordnen, berichtet sie. „Ich hätte | |
ChatGPT damals bis aufs Blut verteidigt.“ Doch heute denke sie anders. „Ich | |
drehe mich nur noch im Kreis. Und wenn ich bei jedem Gedanken denke: Das | |
muss ich sofort ChatGPT erzählen, ist für mich eine Grenze erreicht.“ Ihr | |
Fazit: Es kann punktuell helfen, sobald man es aber mit einer Therapie | |
verwechsle, werde es gefährlich. | |
Laut Jochim stößt ChatGPT schnell an eine Grenze, da es auf einem | |
sogenannten Bestätigungsalgorithmus basiere – also so programmiert sei, | |
dass er User zunächst bestätigt und bestärkt. Eine „Therapie“ mit ChatGPT | |
unterscheidet sich laut Jochim daher kaum von Scrolling auf Instagram, denn | |
auch dort gehe es darum, Verhalten zu bestätigen und passende Inhalte | |
auszuspielen. | |
Mit echter Psychotherapie habe das wenig zu tun, so Jochim. „In der | |
Therapie geht es nicht nur um bestärkende Erfahrungen, die man auch durch | |
Empowerment oder Selbstoptimierung erfahren kann, sondern auch um | |
schmerzhafte, unbequeme Konfrontationen mit sich selbst. Es ist also | |
entscheidend, ob jemand gerade reflektieren möchte oder sich in einer Krise | |
befindet.“ Was ChatGPT macht, ist laut der Expertin vergleichbar mit einem | |
Coaching. | |
Dennoch nutzen viele Menschen ChatGPT gerade in emotionalen Notsituationen. | |
Die KI wird dann zu einem virtuellen Gegenüber – jemandem, dem man sich | |
anvertrauen kann. „Deshalb ist Digitalkompetenz so wichtig“, betont sie. | |
„ChatGPT ist eine Software, die so tut, als würde sie uns verstehen. Sie | |
kann uns sehr gut imitieren – und genau das berührt uns. Je besser sie | |
imitiert, desto mehr sind wir bereit, eine pseudomenschliche Beziehung | |
einzugehen. Und diese kann durchaus einnehmend sein. Ich sehe dabei die | |
Gefahr einer Realitätsverzerrung.“ | |
Zudem warnt sie: „KI macht Fehler, das wissen wir. Und wer haftet, wenn | |
etwas schiefläuft?“ Fälle, in denen Chatbots Suizidgedanken bestätigten | |
oder Essstörungen bestärkten, gibt es bereits, doch Antworten auf diese | |
Frage fehlen bisher. Die ersten Prozesse zu diesen Fällen laufen gerade | |
erst an, [2][wie der um den Suizid eines 14-Jährigen, der davor intensiv | |
mit einer KI gechattet hat]. Mit schnellen Urteilen ist aber nicht zu | |
rechnen. | |
## Eine Aufgabe für die ganze Gesellschaft | |
Christina Jochim geht davon aus, dass der Einsatz von künstlicher | |
Intelligenz als vermeintliche alternative Therapieform in Zukunft weiter | |
zunehmen wird. Eine einfache Lösung für die komplexen Herausforderungen in | |
diesem Bereich gebe es jedoch nicht. „Die Faszination, etwas Menschliches | |
künstlich nachzubilden, war schon immer da. Doch ich glaube, das Ausmaß, in | |
dem KI unsere Gesellschaft, speziell im medizinischen Kontext, verändern | |
wird, ist uns noch gar nicht bewusst.“ Der Umgang damit sei eine | |
„gesamtgesellschaftliche Aufgabe“. | |
Jochim fordert deswegen, dass die Politik sich darauf konzentriert, die | |
gesundheitliche Versorgung langfristig zu sichern. Dazu zählt neben der | |
Ausweitung von Kassensitzen auch der gezielte Ausbau digitaler Angebote, | |
die stärkere Einbindung von Hausärztinnen und Hausärzten bei psychischen | |
Erkrankungen. | |
„Menschen verdienen echte Empathie und echtes Verständnis – kein Imitat“, | |
fordert Jochim. Potenzial für die KI im psychotherapeutischen Alltag sieht | |
sie eher in der Bürokratie: „Administrative Prozesse vereinfachen wäre ein | |
sinnvoller Einsatz.“ | |
12 Jun 2025 | |
## LINKS | |
[1] /Bessere-psychische-Versorgung/!6089796 | |
[2] https://www.heise.de/news/KI-Text-keine-geschuetzte-Rede-US-Verfahren-zu-Su… | |
## AUTOREN | |
Giorgia Grimaldi | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
Sigmund Freud | |
Psychotherapie | |
Therapie | |
ChatGPT | |
Social Media | |
GNS | |
Lesestück Recherche und Reportage | |
TikTok | |
Zukunft | |
Schwerpunkt Künstliche Intelligenz | |
Feminismus | |
Social Media | |
## ARTIKEL ZUM THEMA | |
Feindbild für Trump-Anhänger: Tiktok-Superstar Khaby Lame muss die USA verlas… | |
Für rechte US-Influencer ist er ein „linksextremer Tiktoker“: 162 Millionen | |
Menschen folgen dem Italiener Khaby Lame. Die USA musste er nun verlassen. | |
Neue Kontaktlinsen: Warum Menschen bald wie Schlangen sehen könnten | |
Hightech-Linsen lassen Menschen Licht sehen, das sonst Schlangen und Bienen | |
vorbehalten ist. Mögliche Anwendungen reichen von Rettung bis Spionage. | |
KI in der Verwaltung: Ein Chatbot für den Notfall | |
In der Verwaltung hält Künstliche Intelligenz zunehmend Einzug. | |
Expert:innen fordern dabei mehr Transparenz – und verweisen auf ein | |
Vorbild. | |
Künstliche Intelligenz und Arbeit: Der Feind ist nicht die KI | |
KI bedroht vor allem die Arbeitsplätze von Frauen. Allein auf | |
Weiterbildungen zu setzen, ist nicht die Lösung. Wir müssen auch ans Thema | |
Care-Arbeit. | |
„We listen and we don't judge“: Viraler Beichtstuhl | |
Beim Social Media Trend „We listen and we don't judge“ hört man sich | |
Schuldbekenntnisse an, ohne zu urteilen. Aber geht es danach jemandem | |
besser? |