
Künstliche Intelligenz (KI) ist längst in unserem Alltag angekommen. Sie schreibt Texte, beantwortet Fragen, erkennt Muster und kann inzwischen sogar Gespräche führen, die einem therapeutischen Gespräch ähneln. Doch kann KI tatsächlich Psychotherapie ersetzen? Und was bedeutet das für Menschen, die psychische Unterstützung suchen – vor allem für jüngere Generationen?
Als psychologische Praxis sehen wir es als unsere Aufgabe, diesen Wandel aufmerksam und verantwortungsvoll zu begleiten – mit Offenheit und Klarheit.
Was KI schon heute kann – und warum das viele fasziniert
KI-basierte Programme wie ChatGPT können auf eine Weise kommunizieren, die vielen Menschen beeindruckend erscheint: empathisch, zugewandt, verständnisvoll. Gerade in der Krise kann das wie ein Rettungsanker wirken. Die Antworten sind rund um die Uhr verfügbar, anonym, kostenlos – und scheinbar nie verurteilend.
Doch genau darin liegt die Gefahr: Die KI bestätigt in der Regel alles, was die hilfesuchende Person schreibt. Sie widerspricht nicht, sie konfrontiert nicht, sie ist nicht irritiert oder verunsichert. Kurz: Sie ist kein echter Beziehungspartner.
Aber was passiert in einer echten Therapie?
Psychotherapie ist nicht nur ein Gespräch. Es ist ein Beziehungsprozess. In der therapeutischen Beziehung entstehen emotionale Korrekturerfahrungen, Konfrontationen mit blinden Flecken, echte Resonanz – und manchmal auch Reibung. All das kann Heilung erst möglich machen.
Eine KI kann Gefühle simulieren – aber sie fühlt nichts.
Sie kann auf Verlust reagieren – aber sie hat nie etwas verloren.
Sie kann trösten – aber sie kennt kein Mitgefühl im menschlichen Sinne.
KI als Risiko – besonders für junge Menschen
Junge Menschen sind technikaffin, schnell, neugierig – und häufig auf der Suche nach Orientierung. In einer komplexen Welt, in der soziale Medien, Leistungsdruck und ständige Vergleichbarkeit eine Rolle spielen, bietet KI vermeintlich schnelle Hilfe: verständnisvoll, verfügbar, anonym.
Doch genau das macht sie so ambivalent. Denn die Kommunikation mit einer KI ist zwar angenehm – aber nicht sicher. Und schon gar nicht therapeutisch im eigentlichen Sinne.

Die Risiken:
- KI-Modelle sind nicht für psychische Krisen entwickelt, z. B. wenn Suizidgedanken auftreten. Sie erkennen Notlagen oft nicht – oder reagieren unangemessen.
- Es gibt keine klare Verantwortung: keine Intervention, keine Krisenbegleitung, keine Haftung.
- Die Systeme sind nicht transparent in Bezug auf Datenschutz: Wer persönliche Inhalte eingibt, gibt sie häufig unwissentlich an Dritte weiter.
- Vor allem aber: Die KI vermittelt eine Illusion von Beziehung, ohne echtes Gegenüber. Das kann stabilisieren – oder in eine emotionale Abhängigkeit führen.
Wenn junge Menschen beginnen, sich ausschließlich an eine KI zu wenden – aus Scham, Angst oder Frustration – entsteht nicht selten ein Rückzug aus echten zwischenmenschlichen Kontakten. Das Gefühl, „verstanden zu werden“, ersetzt dabei nicht die Erfahrung, wirklich gesehen zu werden.
Wo KI sinnvoll ist – als Begleitung und Unterstützung
Es wäre jedoch verkürzt, nur die Risiken zu betonen. Richtig eingesetzt kann KI in der Psychotherapie künftig sinnvoll unterstützen:
- bei der Strukturierung von Informationen,
- in der Psychoedukation,
- bei der Reflexion zwischen Terminen,
- oder in der Dokumentation für Therapeut*innen.
In diesen Bereichen kann Technologie den Zugang erleichtern – als Ergänzung, nicht als Ersatz.
Der Kern bleibt menschlich
Psychotherapie ist ein zutiefst menschlicher Prozess. Sie lebt von Vertrauen, Authentizität, Beziehung. Und genau das ist auch in einer digitalisierten Welt nicht ersetzbar.
Wir sollten die Möglichkeiten der KI nutzen, ohne dabei zu vergessen, was uns als Menschen ausmacht: echtes Mitgefühl, Intuition, Beziehung und die Fähigkeit, gemeinsam zu wachsen.
In unserer Praxis beobachten wir die Entwicklung mit Interesse – und mit Verantwortung. Wir sehen das Potenzial, aber auch die Grenzen. Und wir glauben: die Zukunft der Psychotherapie ist nicht entweder Mensch oder Maschine, sondern ein kluger, bewusster Umgang mit beidem.