KI in der Psychotherapie:

Frage: Herr Professor Langer, sehen Sie Anwendungsmöglichkeiten für KI in der Psychotherapie? Und wenn ja, für welche Bereiche?
Professor Langer: Da gibt es einige Anwendungsmöglichkeiten. Je repetitiver und weniger riskant eine Aufgabe ist, je mehr besteht die Möglichkeit, KI einzusetzen und zwar sinnvoll einzusetzen. Man denkt bei KI in der Psychotherapie an Chatbots, der mit den Patienten redet und sie therapiert. Soweit würde ich nicht gehen. Es gibt aber mehr als genug Möglichkeiten, KI für administrative Sachen einzusetzen, zum Beispiel als Aufzeichnungen von Therapiesitzungen, die automatisch in Texte überführt werden. Das sind Dinge, die mit KI einfach umsetzbar sind und sinnvoll umgesetzt keine großen Risiken beinhalten.
Frage: Psychotherapeuten suchen Arbeitserleichterung durch KI, zum Beispiel in der Dokumentation oder zum Schreiben von Berichten. Dies wäre also aus Ihrer Sicht nicht kritisch zu betrachten?
Professor Langer: Ich glaube nicht, dass das unendlich kritisch ist. Solange man das den Menschen gut an die Hand gibt und klarmacht, dass es zwar das Schreiben erleichtert, nicht aber das Denken erspart. Es muss klar sein, dass der Mensch, der Therapeut am Ende noch einmal kritisch drüber schauen muss. Geht darin alles plausibel einher, was ich über die Patientin, den Patienten in Erfahrung gebracht habe? Wenn dann aber bereits Empfehlungen von der KI gemacht werden, fängt es an, in den gefährlichen Bereich zu gehen. Aber wenn es wirklich nur darum geht, die Dokumentation oder das Antragsschreiben unterstützen zu lassen, dann hat es wirklich Potential. Ich höre sehr oft bei meinen Vorträgen, dass Psychotherapeuten sagen, dass die Dokumentation nicht nur ein bürokratischer Akt ist, sondern sie dient der Auseinandersetzung mit dem Gesagten innerhalb der Therapie. Wenn KI dann so eingesetzt werden würde, dass sich der Therapeut keine weiteren Gedanken mehr macht und sein Denken auslagert, dann hätte KI negative Effekte. Solche Studien müssten aber erst noch gemacht werden, die zeigen, dass Dokumentieren mit KI zu einer schlechteren Auseinandersetzung mit der Therapiesitzung führen.
Professor Dr. Markus Langer leitet die Abteilung für Arbeits- und Organisationspsychologie an der Universität Freiburg. Er forscht zu psychologischen Aspekten der Digitalisierung. Außerdem beschäftigt er sich intensiv mit Fragen, wie z.B. eine positive Zukunft durch den Einsatz KI-basierter Systeme in der Psychotherapie aussehen könnte. Ist Psychotherapie überhaupt automatisierbar? Wie würde das die Versorgung verändern?

Foto: Christian Stein
Frage: Genau diesen Gedanken hört man oft, dass durch den Einsatz von KI eine reflektierende Tiefe nach der Behandlung verloren ginge.
Professor Langer: Meine Hoffnung in diesem Sinne ist, dass ich als Therapeut weiß, da läuft eine Dokumentation im Hintergrund mit, die mir im Nachgang des Gespräches eine gute Zusammenfassung erstellt. Das kann dazu führen, dass ich mich besser damit auseinandersetzen kann, was ich im Patientengespräch gerade gehört habe. Es kann aber auch so sein, dass das Mitschreiben im Gespräch eine Form des Mitdenkens ist, die ich als Therapeut brauche. Dann ist es eine Frage der Zusammenarbeit, was KI dazu beitragen kann, damit ich mich als Therapeut auf die wichtigen Dinge in der Versorgung konzentrieren kann. KI kann dafür Kapazitäten schaffen. Dennoch möchte ich darauf hinweisen, dass eine KI-gestützte Dokumentation immer am Ende zu überprüfen ist.
Frage: Gibt es eine geprüfte KI, die die Diagnostik sinnvoll ergänzen kann?
Professor Langer: Ich kann mir vorstellen, dass es irgendwann dafür etwas geben wird. Diagnostische KI könnte im Endeffekt sein, dass ausgefüllte Formulare durch KI hinsichtlich der Diagnose ausgewertet werden. Was es meiner Kenntnis nach bisher nicht wirklich klinisch geprüft gibt, sind Chatbots, die Gespräche mit Patienten führen. Es gibt schon einige Studien, die getestet haben, ob es leichte positive Effekte zum Beispiel bei Variablen wie Einsamkeit, depressiver Symptomatik gibt. Aber nichts davon ist wirklich klinisch geprüfte interaktive Chatbot-KI.
Frage: Welche Sorgfaltspflichten haben Behandler immer beim Einsatz von KI?
Professor Langer: Die Sorgfaltspflicht Nummer eins ist, nirgendwo persönliche Daten von Patienten einzugeben. Über allem steht außerdem das Bewusstsein, dass ich für alle Konsequenzen im Einsatz mit KI verantwortlich bin. Das heißt, wenn KI Fehler macht und ich übernehme diese ungeprüft, ist es meine Verantwortung dafür. Gerade beim Einsatz von ChatGPT ist zu beachten, dass ChatGPT ein Allzweck-Tool ist. Es wurde nicht gezielt dafür entwickelt, um Therapeuten bei ihrer Arbeit, in der Dokumentation zu unterstützen.

Ethische Fragen zu KI drehen sich immer um menschliche Aufsichts- und Sorgfaltspflichten
Frage: Welche Einwilligungs- und Aufklärungspflichten gibt es dem Patienten gegenüber, wenn KI in der Praxis zum Einsatz kommt?
Professor Langer: Wenn man KI nutzt, um Texte zu dokumentieren, wäre es fair dem Patienten gegenüber, dies mitzuteilen. Zum Beispiel in dem Sinne: bei mir läuft ein Tool, das ist datenschutzkonform, läuft nur auf meinem PC und am Ende entsteht ein Text, der unser Gespräch dokumentiert. Wenn dabei persönliche Daten der Patienten erhoben werden, ist eine Einwilligung immer nötig. Sobald es noch um klinisch relevantere Fälle geht, um Diagnostik, hat man verstärkte Aufklärungs- und Sorgfaltspflichten. Wenn KI dann noch Hinweise, Empfehlungen zur therapeutischen Interventionen gibt, stößt dies schon an die Grenzen der KI-Verordnung.
Frage: Gibt es ethische Vorgaben zum Einsatz von KI?
Professor Langer: Dazu ist sehr viel entwickelt wurden, zum Beispiel von der EU, von der UNESCO zu ethischen Standards. Für jeden Einsatzfall von KI kann man sich vorab mit den wichtigsten Fragen beschäftigen. Für Psychotherapeuten gibt es ein Regelwerk in einer amerikanischen Studie, dass mit den sechs wichtigsten Fragen beginnt, die zu durchdenken sind, bevor man KI in der Praxis einsetzt. Es geht bei ethischen Fragen zum Einsatz von KI immer um menschliche Aufsichts- und Sorgfaltspflichten.
"Der Patient nutzt den Chatbot und der Therapeut schaut von außen zu."
Frage: Was Sie sagen hört sich nicht so an, als könne man ohne vorherige intensiver Beschäftigung mit KI und der daraus resultierenden Verantwortung einfach mal so starten?
Professor Langer: Es ist verzwickt: einerseits habe ich Hoffnung auf Arbeitserleichterung durch den Einsatz von KI, andererseits habe ich rechtliche und ethische Maßgaben, mit denen ich mich zuerst beschäftigen muss.
Es gibt noch einen anderen Grund, warum man sich vorab mit KI beschäftigen sollte. Hier kommt der Patient ins Spiel. Der kann sich nämlich einen Chatbot suchen und nach seinen Wünschen erschaffen. Diesen Chatbot kann er wie einen menschlichen Therapeuten behandeln. Dann landet dieses Thema auf andere Weise in der Therapie. Patienten erzählen, dass sie mit ihrem Chatbot über Probleme sprechen. Und dann entsteht die Frage, wie gehe ich als Psychotherapeutin, als Psychotherapeut damit um? Dann wäre es wünschenswert, wenn ich mich als Therapeut damit auskenne, Handreichungen geben könnte. Dann nutzt der Patient den Chatbot, um sich selbst weiterzuhelfen und der Therapeut schaut von außen zu.

Frage: Sie sprechen es gerade an: Wie ist damit umzugehen, wenn ein Patient sehr stark durch KI geprägt – KI als Sozialpartner – in die Praxis kommt. Also KI als Drittes in der Therapiebeziehung eine Rolle spielt?
Professor Langer: Das ist eine vieldiskutierte Frage. Es gibt bisher keine Regelungen, die steuern, KI dafür zu nutzen oder nicht. In Amerika entsteht gerade in einigen Bundesstaaten Rechtsprechung, die besagt, KI darf nicht als psychotherapeutisches Tool genutzt werden. Demzufolge müssen sich KI-Unternehmen darum kümmern, dass ihre Tools nicht als Psychotherapie-Tools genutzt werden können. Dass kann für Hersteller so aussehen, dass auf die Aufforderung des Kunden: „Ich möchte mentale Gesundheit diskutieren!“ die Antwort kommt: „Das kann ich nicht.“. Das ist technisch machbar.
Es ist, wie gesagt, viel diskutiert. Andererseits gibt es die Selbstverantwortungsannahme. Jeder ist damit selbst zuständig, ob er einen Chatbot für therapeutische Zwecke nutzt oder nicht. Das kann schnell zum Problem werden. Kann man bei einem 14- oder 16-Jährigen von Selbstverantwortung sprechen? Bei Älteren ist es vielleicht eher die Frage, ob ich KI als therapeutische Unterstützung nutzen kann? Dies brauchte Begleitung und Anleitung. Das kann kaum eine Psychotherapeutin oder ein Psychotherapeut alleine leisten. Zu schnell wird es unkontrollierbar, birgt zu viele Risiken, es entwickelt sich zudem alles rasend schnell.
KI für die Psychotherapie, deren Einsatz hilfreich und sinnvoll ist
Frage: Welche Entwicklung wird KI zum Beispiel in der Anwendung in der Psychotherapie nehmen?
Professor Langer: Ich denke, es wird sich schon bald ein großer Spalt zwischen „Wir verbieten es“ und die Menschen machen es trotzdem oder „einer rasanten Entwicklung“ aus wirtschaftlichen Interessen ergeben. Wir haben eine Studie durchgeführt, in der es darum ging, warum KI als eine so große Alternative für allgemeine Gesundheitsthemen gesehen wird. Ergebnis war, dass sie so einfach verfügbar ist. Ein Psychotherapeut ist das nicht. Der Wunsch, über belastende Dinge zu sprechen, wann immer ich möchte, steht massiv im Raum. Früher kamen einige Patienten mit Google-Wissen und –Diagnosen zum Therapeuten, heute ist es der Chatbot. Die Gefahr liegt darin, dass KI sagt, was man hören möchte, plausibel erklären kann, immer zugewandt ist. Das ist sehr verführerisch es immer wieder zu nutzen oder ausschließlich zu nutzen.
Man könnte KI durchaus so gestalten, dass es auch Antworten gäbe wie: „Das ist jetzt keine gute Idee. Da widerspreche ich.“. Das verkauft sich aber vielleicht einfach weniger gut. Die Business-Idee ist: „Nutze mich, nutze nur mich, nutze mich den ganzen Tag und geh‘ nicht weg von mir!“.
Diese Zukunftsvision ist beängstigend, aber ich habe auch die Hoffnung, dass man KI anders gestaltet. Es heißt ja nicht, dass man KI nicht so bauen könnte, dass sie für die Psychotherapie geeignet ist und deren Einsatz am Ende hilfreich und sinnvoll ist.
