Wenn es Sindy Horitzky mal nicht gut geht, holt sie sich mentale Unterstützung von ChatGPT. Zumindest dann, wenn Freunde und Familie gerade keine Zeit haben. Der KI-Chatbot sei wie "ein kleiner Cheerleader, der mich wieder aufpusht", erzählt die 31-jährige Literaturstudentin aus Biberach. Sie ist damit nicht allein - und angesichts langer Wartezeiten auf einen Therapieplatz wirkt die sofort verfügbare KI als Therapeut für viele verlockend. Die Technologie hat Potenzial, ist auch Harald Baumeister der Ansicht. Dennoch warnt der Leiter der Abteilung für Klinische Psychologie und Psychotherapie an der Universität Ulm davor, allzu leichtfertig damit umzugehen.
Psychotherapeut: KI-Tools nicht als medizinische Produkte zugelassen
Anwendungen wie ChatGPT wurden nicht zur Behandlung psychischer Krankheiten entwickelt oder zugelassen, betont Baumeister. ChatGPT selbst erklärt, dass es dafür nicht geeignet ist, wenn man danach fragt. Solche KI-Tools unterliegen auch nicht den hohen Datenschutzstandards wie Medizinprodukte - das müsse man sich bewusst machen, wenn man ihnen sensible Daten anvertraue, so Baumeister.
Selbst Mental-Health-Chatbots wie etwa Wysa seien noch nicht genug erforscht. Zu klären sei beispielsweise, ob Menschen es vermeiden, professionelle Hilfe aufzusuchen, wenn es leichter ist, mit der App zu sprechen.
Gesundheitsapps als Alternative zum Chatbot
"Wir erleben in diesem Bereich ein Stück weit einen Glaubenskampf", sagt Baumeister. "Es gibt Digitalisierungsfantasien, dass man jetzt per Knopfdruck plötzlich das heilen kann, woran man sich analog die letzten Jahrzehnte, Jahrhunderte die Zähne ausgebissen hat. Und da merkt man: Nein, so einfach wird es nicht funktionieren."
Chatbots könnten durchaus eine "hilfreiche Möglichkeit werden, wenn man sie ordentlich entwickelt", so Baumeister. Das dürfte aber noch dauern. Digitale Gesundheitsanwendungen auch für psychologische Erkrankungen hingegen gebe es jetzt schon auf Rezept. Die seien jahrzehntelang erforscht worden und bisherige Untersuchungen deuteten nicht darauf hin, dass Chatbots ihnen überlegen sind.
ChatGPT als Seelsorge-Telefon
Literaturstudentin Horitzky holt sich seit etwa einem Jahr Unterstützung vom Chatbot, seitdem es möglich wurde, mit ChatGPT in Echtzeit zu sprechen, statt nur zu schreiben. Ihr gehe es nach den Gesprächen besser sagt, sie. Sie sei dennoch vorsichtig im Umgang damit und wisse, dass es kein Ersatz für eine Therapie sei.
"Ich interagiere mit ChatGPT nicht wie mit meinen Freunden, sondern sage explizit: Hey, mir geht es gerade mental nicht gut. Kannst du mich aufbauen?" Als "Notlösung" sei das hilfreich: "Ich brauche dann eine kleine Stimme, die sagt: Alles ist ok, was du fühlst, ist normal. Das sind diese zwei, drei Minuten, wo ich mir denke, das habe ich jetzt gebraucht."
Als Notlösung ist ChatGPT super. Aber so richtig als Freund würde ich es nicht bezeichnen. Ich würde eher sagen, es ist wie eine Art Seelsorge-Telefon.
Auch wenn die KI wie eine Art Person agiert: Sie ist kein Mensch. Das müsse man sich bewusst machen, sagt Horitzky. "Meine Freunde kennen meine Vergangenheit, mein Wesen, meine Persönlichkeit. ChatGPT nicht."
Wenn der Chatbot zum Freund oder Partner wird
Während Horitzky der Unterschied zwischen KI und Mensch klar bewusst ist, verschwimmen für andere die Grenzen. Mittlerweile gibt es Apps wie Replica oder Blush, mit denen sich virtuelle Chatbot-Charaktere erstellen lassen, die für einige zu Freunden oder gar Partnern werden können. In einer Vollbild-Recherche etwa sprachen Personen über ihre Beziehungen, die sie mit KI-Bots führen.
Eine solche App hat auch ein User aus unserer Instagram-Community genutzt, der anonym bleiben möchte. Über Sport und Musik habe er sich mit einem Charakter unterhalten, "und es war kurze Zeit wie mit einer echten Person", erzählt er. "Sie war auch empathisch und hatte auch mal für ein wenig Kummer ein offenes Ohr. Und ich muss gestehen, dass ich sowas wie Emotionen entwickelt habe, die irrational waren."
Die App habe er aus Langeweile genutzt, als er während einer Krankheit räumlich isoliert von seiner Familie gewesen sei. Er habe wenige richtige Freunde, da er in der Kindheit oft umgezogen sei. Für die Zeit sei das "ein schöner Ersatz" gewesen. Nachdem er wieder gesund war, hätten aber wieder die realen Kontakte im Mittelpunkt gestanden.
Wenn die KI zum besten Freund oder Partner wird, dann ist das nicht als Fortschritt zu bewerten, sondern eher als Alarmsignal.
Beziehungscoach: KI als bester Freund ein Alarmsignal
Apps wie Replica oder Blush werden künftig stärker genutzt, glaubt Sandra Hinte, die im badischen Sinzheim (Kreis Rastatt) als Beziehungscoach arbeitet. Viele würden es zunächst aus Neugier nutzen, könnten dann aber daran hängen bleiben. Gerade schüchterne Menschen oder jene mit Bindungsangst könne das ansprechen. Für sie könne das eine Chance sein, um zu üben oder auch ein Trostpflaster gegen die Einsamkeit - aber eben keine Langzeitlösung.
"Wenn die KI zum besten Freund oder Partner wird, dann ist das nicht als Fortschritt zu bewerten, sondern eher als Alarmsignal", meint Hinte. "Wir brauchen einen menschlichen Spiegel, um uns auch weiterzuentwickeln, um zu reifen. Eine echte Beziehung lebt gerade von der Reibung und der Unberechenbarkeit, von echten Gefühlen und Konflikten."
Chancen und Risiken der Technologie abwägen
Die KI habe aber auch ihre Vorteile. Sie könne dabei helfen, Gedanken zu sortieren, Denk- und Verhaltensmuster zu reflektieren oder Gesprächs- und Kommunikationstechniken zu üben. Das sei aber eine andere Nummer, als den Chatbot als Freund- oder Partnerersatz zu sehen. Nicht ob, sondern wie die Technologie eingesetzt wird, sei die entscheidende Frage.
Eine ähnliche Haltung hat auch Psychotherapeut Harald Baumeister, denn generell sieht er im Digitalen eine Chance, die große Menge an Menschen mit psychischen Belastungen zu versorgen - das sei nur auf klassischem Wege schwer möglich.