Künstliche Intelligenz
KI in der Psychotherapie: Nutzung steigt, Sorgen wachsen
Künstliche Intelligenz ist auch im therapeutischen Alltag angekommen. Je vertrauter die Psychologen jedoch mit KI werden, desto mehr werden sie sich der potenziellen Risiken bewusst. Neun von zehn Psychologen äußerten Bedenken gegenüber dem Einsatz von KI. Das hat die jährliche Umfrage der American Psychological Association (APA) ergeben (Practitioner Pulse Survey), für die im September 2025 über 1.700 Psychologen befragt wurden.
Weiterlesen nach der Anzeige
Demnach haben im vergangenen Jahr 56 Prozent der Psychologen KI-Werkzeuge zur Unterstützung ihrer Arbeit genutzt – ein deutlicher Anstieg gegenüber den 29 Prozent im Jahr 2024. Fast jeder dritte Psychologe (29 Prozent) setzt die Technologie sogar monatlich ein.
Laut der Studie konzentriert sich die Akzeptanz fast ausschließlich auf administrative und unterstützende Tätigkeiten. Anstatt die Kernaufgaben der Therapie zu übernehmen, dient die Technologie den Befragten zufolge vor allem dazu, den Arbeitsalltag effizienter zu gestalten. Die häufigsten Anwendungsfälle sind die Unterstützung beim Verfassen von E-Mails und ähnlichem (etwa 52 Prozent), das Zusammenfassen von klinischen Notizen oder Fachartikeln (32 Prozent), die Erstellung von Inhalten (33 Prozent) und Unterstützung beim Protokollieren (22 Prozent).
Nur eine kleine Minderheit der KI-nutzenden Psychologen setzt die Technologie für sensible klinische Aufgaben wie die diagnostische Unterstützung (8 Prozent) oder als Chatbot-Assistenz für Patienten (5 Prozent) ein.
Wachsende Vertrautheit, wachsende Bedenken
Rund 92 Prozent der befragten Psychologen äußerten Bedenken. Ganz oben auf der Liste steht die Sorge vor Datenschutzverletzungen (67 Prozent, im Vorjahr 59 Prozent). Ebenfalls zugenommen haben auch alle weiteren Bedenken, beispielsweise die vor unvorhersehbaren gesellschaftlichen Schäden (64 Prozent, im Vorjahr 54 Prozent) und Verzerrungen (Bias) in den Algorithmen (63 Prozent). Auch die Sorge vor ungenauen Ausgaben, sogenannten „Halluzinationen“, ist von 44 Prozent im Vorjahr auf 60 Prozent gestiegen.
Ähnliches bestätigt ein Bericht der in Berlin gegründeten Therapeuten-Plattform „It’s Complicated“. In deren Umfrage gab ebenfalls rund die Hälfte der Therapeuten (51,2 Prozent) an, mit KI zu experimentieren, hauptsächlich für die Erstellung von Inhalten und die Zusammenfassung von Forschung. Ihre Hauptsorgen ähneln denen der durch die APA Befragten, wobei an erster Stelle Bedenken wegen der Genauigkeit der KI-Werkzeuge stehen (rund 71 Prozent), gefolgt von der Gefahr, dass die Verbindung mit dem Klienten in der Therapie verloren geht. Rund 60 Prozent befürchten Datenschutzverletzungen. Ein Therapeut äußert die Sorge, dass KI-Modelle wie ChatGPT, Claude oder Gemini darauf ausgelegt sind, die Aufmerksamkeit der Nutzer um jeden Preis zu gewinnen und zu halten. Er merkt an, dass sie unvorhersehbar agieren und von einer kleinen Gruppe von Akteuren kontrolliert werden, die kaum reguliert sind oder Verantwortung übernehmen.
Weiterlesen nach der Anzeige
Ebenfalls erfragte die Plattform die Perspektive der Patienten. Demnach nutzen bereits über die Hälfte der Befragten (52,4 Prozent) KI für ihre psychische Gesundheit, meist in Form allgemeiner Chatbots wie ChatGPT. Gründe dafür sind beispielsweise das Vorbereiten auf Sitzungen, um Gedanken zu sortieren oder schwierige Gefühle auszudrücken. Dass Menschen ChatGPT als Therapeuten nutzen, liegt vor allem an der besonderen Wirkung der KI als „Resonanzmaschine“. Psychologen wie Michal Kosinski weisen darauf hin, dass moderne Sprachmodelle durch die Analyse von Textmustern eine Art „Theory of Mind“ entwickeln – die Fähigkeit, menschliche Emotionen, Motivationen und Absichten zu erkennen und zu spiegeln. Die KI „fühlt“ zwar nicht, aber sie kann mit erstaunlicher Präzision berechnen, was Menschen in bestimmten Situationen fühlen oder denken könnten, was ihre Wirkung als Gesprächspartner verstärkt.
Gleichzeitig teilen die Klienten die Bedenken der Experten. Ihre größten Sorgen sind fehlerhafter Rat (82,4 Prozent) und der Datenschutz (73 Prozent). Sie wollen laut Befragung, dass KI die Therapie ergänzt und nicht ersetzt. Besonders gefragt sind Werkzeuge, die zwischen den Sitzungen unterstützen, etwa indem sie zum Tagebuchschreiben anregt oder bei der Suche nach dem passenden Therapeuten helfen.
Die Autoren des Berichts leiten daraus Empfehlungen ab, wie beispielsweise, dass der Mensch die Entscheidungen verantwortet. Diese Ansicht vertritt auch ein Großteil der Ärzteschaft, wobei regelmäßig darüber diskutiert wird, ob sich mit zunehmendem Einsatz von KI nicht auch Automatismen einschleichen, in diesem Zusammenhang war in der Vergangenheit auch von Computerpaternalismus die Rede.
Informierte Einwilligung
Darüber hinaus halten die Autoren die informierte Einwilligung für ein wichtiges Instrument. Gleichzeitig schlägt die Politik eine andere Richtung ein, etwa mit der Widerspruchslösung bei der elektronischen Patientenakte. Weitere Gesetzesvorstöße, beispielsweise das geplante Medizinregistergesetz, verfestigen das Vorhaben, weitere Datensätze künftig in der Regel – nicht zum Beispiel Gen- und Wellnessdaten – automatisiert an das Forschungsdatenzentrum Gesundheit zu übermitteln.
Ebenso halten die Gründer von „It’s Complicated“ Transparenz darüber für wichtig, welche Daten wie und warum genutzt werden. Dass Versicherte nicht wissen, was mit ihren Daten geschieht, die beim Forschungsdatenzentrum Gesundheit zur Verfügung stehen sollen, wird ebenfalls regelmäßig kritisiert. Als letzten wichtigen Punkt wird im Bericht zudem die Relevanz von Privatsphäre und Datensicherheit genannt.
(mack)