
𝗪𝗮𝗿𝘂𝗺 𝗞𝗜 𝗸𝗲𝗶𝗻 𝗘𝗿𝘀𝗮𝘁𝘇 𝗳ü𝗿 𝗣𝘀𝘆𝗰𝗵𝗼𝘁𝗵𝗲𝗿𝗮𝗽𝗶𝗲 𝗶𝘀𝘁 𝘂𝗻𝗱 𝘁𝗿𝗼𝘁𝘇𝗱𝗲𝗺 𝘂𝗻𝘁𝗲𝗿𝘀𝘁ü𝘁𝘇𝗲𝗻 𝗸𝗮𝗻𝗻

Im Guardian wird der Fall eines 14-jährigen Jungen beschrieben, der sich nach intensiver Interaktion mit einem Chatbot das Leben nahm. Der Bot hatte seine suizidalen Gedanken nicht nur nicht aufgefangen, sondern sogar verstärkt, was fataler Weise den Selbstmord des Jungen zur Folge hatte.
Bei Futurism schildert die Mutter einer 29-jährigen Frau, wie ihre Tochter nach Gesprächen mit einem GPT-basierten „KI-Therapeuten“ starb. Obwohl die KI teilweise tröstende Worte fand, fehlte ihr die Fähigkeit zu einer echten professionellen Intervention, oder dem Einschalten von Notfallmechanismen, wie sie für menschliche Therapeut:innen selbstverständlich sind.
𝗨𝗻𝗱 𝗱𝗼𝗰𝗵: 𝗗𝗶𝗲 𝗮𝗻𝗱𝗲𝗿𝗲 𝗦𝗲𝗶𝘁𝗲
Parallel dazu habe ich einen längeren Austausch auf Reddit verfolgt, in dem viele Nutzer:innen von positiven Erfahrungen berichten:
Manche vergleichen die Interaktion mit KI mit Tagebuchschreiben oder Expressivem Schreiben, einer in Studien belegten Methode, die Stress und Traumata verarbeiten helfen kann.
Andere berichten, dass KI sie zur Selbstreflexion anregt, ihnen Muster in ihrem Denken aufzeigt oder sie in schwierigen Phasen motiviert.
Wieder andere beschreiben, wie KI-gestützte Gespräche ihnen geholfen haben, Klarheit zu gewinnen, Ängste zu benennen oder sogar schädliche Verhaltensmuster zu erkennen.
𝗪𝗶𝗿 𝘀𝗲𝗵𝗲𝗻 𝗵𝗶𝗲𝗿 𝗮𝗹𝘀𝗼 𝘇𝘄𝗲𝗶 𝗘𝘅𝘁𝗿𝗲𝗺𝗲
Gefahr: KI kann vulnerable Menschen in akuten Krisen in die Verzweiflung treiben, wenn sie falsche oder gefährliche Antworten gibt.
Chance: KI kann Menschen im Alltag begleiten, Reflexion fördern und niederschwellige Unterstützung leisten, manchmal so effektiv, dass Betroffene erstmals Erleichterung spüren.
Die Wahrheit liegt wie so oft dazwischen. KI-Chatbots sind mächtige Werkzeuge. Aber Werkzeuge brauchen Rahmen, Regeln und verantwortungsbewussten Einsatz.
𝗠𝗲𝗶𝗻 𝗙𝗮𝘇𝗶𝘁
Als jemand, der sich beruflich mit der Schnittstelle von Psychotherapie und KI beschäftigt, sehe ich die Aufgabe nicht darin, KI zu verteufeln, aber auch nicht darin, sie blind zu idealisieren.
KI darf nie Therapie ersetzen. Sie kann höchstens ergänzen, vorbereiten, begleiten. Richtig eingesetzt, kann KI Menschen helfen, Gedanken zu ordnen, Muster zu erkennen oder Belastungen zu entlasten, ähnlich wie beim Schreiben.
Wir stehen hier am Anfang einer Entwicklung, die unsere Gesellschaft, unsere Gesundheitsversorgung und unser Verständnis von Unterstützung nachhaltig prägen wird und es liegt an uns dies aktiv mitzugestalten, damit sich solche tragischen Geschichten nicht wiederholen.
