Der Aufstieg der KI verändert viele Lebensbereiche, mit einer prognostizierten Wachstumsrate von fast 37 % bis 2030 – während das Gesundheitswesen mit einer langfristigen Akzeptanzrate von 40 % voraussichtlich die größten Auswirkungen des KI-Einsatzes erfahren wird.
Im Bereich der psychischen Gesundheit zielt künstliche Intelligenz darauf ab, grundlegende Probleme anzugehen – den Mangel an Ärzten und die hohen Therapiekosten. Ganz gleich, ob es darum geht, ein überlastetes psychisches Gesundheitssystem zu entlasten, finanzielle oder örtliche Hürden zu überwinden, den Bedarf an Erster Hilfe zu decken oder Stigmatisierungen zu überwinden, es scheint, als hätte KI Antworten auf die Demokratisierung der Therapie für die breite Öffentlichkeit. Und dies spiegelt sich in der rasanten Zunahme der Suchanfragen nach „AI Mental Health“ bei Google in den letzten zwei Jahren wider.
KI-gestützte Chatbots wie Wysa, Woebot, Earkick und Youper kombinieren maschinelle Lernalgorithmen und die Verarbeitung natürlicher Sprache mit psychologischen Methoden, um Menschen, die eine psychische Gesundheitsfürsorge benötigen, Unterstützung und therapeutische Interventionen anzubieten. Große Arbeitgeber in den USA bieten zunehmend Zugang zu KI-Apps für psychische Gesundheit als Zusatzleistungen am Arbeitsplatz an.
Während KI-gestützte Tools Schritte unternehmen, um den Zugang zur Therapie zu demokratisieren, hat ihr Aufstieg sowohl Aufregung als auch Besorgnis ausgelöst.
Grenzen der KI in der Psychotherapie
Das Verständnis der menschlichen Erfahrung durch KI ist durch ihre Unfähigkeit, soziale und kulturelle Kontexte zu erfassen, begrenzt. Da entscheidende soziale Signale fehlen, kann die KI-Therapieerfahrung zu Missverständnissen führen und den Fortschritt des Patienten beeinträchtigen.
Szenario: Eine chinesisch-amerikanische Person, die mit Isolationsgefühlen und kulturellen Identitätskonflikten zu kämpfen hat, versucht, einen KI-Chatbot zu verwenden.
Patient: A „Ich fühle mich zwischen zwei Welten verloren. Ich werde weder in der chinesischen noch in der amerikanischen Kultur vollständig akzeptiert.“ KI-Chatbot: „Es hört sich so an, als ob Sie viel Stress haben. Haben Sie versucht, Achtsamkeit zu üben?“
Der Chatbot bietet zwar einen generischen Bewältigungsmechanismus, berücksichtigt jedoch nicht die kulturellen Nuancen der Erfahrung des Patienten. Die Reaktion könnte als unsensibel empfunden werden, was das Gefühl der Isolation des Patienten noch verstärkt.
Ethische Überlegungen wie Datenschutzbedenken und das Potenzial für KI-Voreingenommenheit sind ebenfalls von größter Bedeutung und müssen bei der Entwicklung von KI im Bereich der psychischen Gesundheit berücksichtigt werden. Verzerrungen in Trainingsdaten können zu falschen Behandlungsentscheidungen führen.
Szenario: Ein KI-Chatbot, der bei Angstzuständen und Depressionen helfen soll, wurde anhand eines Datensatzes trainiert, der überwiegend Erfahrungen männlicher Befragter umfasst.
Patientin: „Ich bin eine Frau, die mit Angstzuständen und Depressionen zu kämpfen hat. Ich habe das Gefühl, ständig beurteilt und stereotypisiert zu werden.“ KI-Chatbot: „Es hört sich an, als ob Sie sich überfordert fühlen. Vielleicht sollten Sie es mit sanftem Training versuchen, um Stress abzubauen.“
Der Chatbot berücksichtigt nicht die besonderen Stressfaktoren, denen Frauen ausgesetzt sind, wie etwa gesellschaftlicher Druck und Geschlechterdiskriminierung. Dies kann dazu führen, dass Erfahrungen minimiert und schädliche Stereotypen verstärkt werden.
Schließlich könnte die KI Schwierigkeiten haben, komplexe Fälle mit schweren psychischen Erkrankungen oder Traumata zu bewältigen. Es könnte schwierig sein, das differenzierte Verständnis und die therapeutischen Interventionen menschlicher Therapeuten zu demonstrieren.
Szenario: Ein Patient, der ein schweres Kindheitstrauma erlebt hat, das zu einer komplexen posttraumatischen Belastungsstörung (C-PTSD) geführt hat, kann Flashbacks, Albträume, Hypervigilanz und Schwierigkeiten haben, anderen zu vertrauen.
Patient: „Ich habe jede Nacht Albträume. Ich kann nicht schlafen. Ich habe das Gefühl, immer nervös zu sein, als würde etwas Schlimmes passieren.“ KI-Chatbot: „Es hört sich an, als ob Sie gerade eine schwierige Zeit durchmachen. Haben Sie Entspannungstechniken wie tiefes Atmen ausprobiert?“
Der Chatbot vereinfacht die Komplexität von Trauma und PTBS zu stark. Möglicherweise fällt es ihm schwer, den emotionalen Schmerz vollständig zu verstehen, und er greift möglicherweise auf einfache Lösungen zurück, die noch mehr negative Emotionen auslösen.
In allen drei Fällen macht es der Mangel an einfühlsamer Präsenz, kultureller Sensibilität und tiefem Verständnis für die KI schwierig, das Maß an Vertrauen aufzubauen, das für eine wirksame Unterstützung der psychischen Gesundheit unerlässlich ist. Damit kommen wir zur Diskussion der Rolle menschlicher Therapeuten im Zeitalter der KI.
Das unersetzliche menschliche Element
Während einige der Bedenken bestehen oder möglicherweise gelöst werden können, glauben wir, dass KI niemals in der Lage sein wird, Empathie zu zeigen und Vertrauen aufzubauen.
Empathie, die Fähigkeit, die Gefühle einer anderen Person zu verstehen und mitzuteilen, ist ein Grundpfeiler der Psychotherapie. Untersuchungen zeigen, dass das Ausmaß der vom Therapeuten gezeigten und vom Patienten wahrgenommenen Empathie und nicht die verwendete spezifische Modalität einen signifikanten Zusammenhang mit dem Erfolg der Behandlung hat.
KI nimmt per Definition nicht an emotionalen Erfahrungen teil und ist nicht in der Lage, empathisch zuzuhören. Unabhängig davon, wie eloquent und statistisch fundiert seine Reaktion auf die Bedürfnisse eines Patienten ist, teilt es keine Erfahrung mit – und ist nicht in der Lage zu verstehen, wie eine Person über die Reaktion denkt.
Wenn künstliche Intelligenz darauf trainiert wird, empathisch zu sein – zum Beispiel durch eine kontinuierliche Interaktion mit demselben Patienten, der seine Gefühle offen zum Ausdruck bringt – besteht die Gefahr, dass sie unethisch ist, da sie die Bedeutung und Erwartungen an echte Empathie untergräbt.
Die gleiche Empathiebarriere spiegelt sich in der Art und Weise wider, wie Patienten KI-Interaktionen wahrnehmen. Während durch KI generierte Nachrichten den Empfängern das Gefühl geben können, gehört zu werden, fühlen sich dieselben Empfänger weniger gehört und empfinden Nachrichten als weniger authentisch und vertrauenswürdig, wenn sie erkennen, dass sie von KI stammen.
Auch der Aufbau einer vertrauensvollen Beziehung, der sogenannten therapeutischen Allianz, ist für eine erfolgreiche Therapie von entscheidender Bedeutung. Im Gegensatz zur KI sind Menschen hervorragend darin, eine Beziehung aufzubauen und einen sicheren Raum für Kunden zu schaffen. Durch einfühlsames Zuhören können Therapeuten oft erkennen, wann sich ein Klient überfordert fühlt oder ein neuer Ansatz erforderlich ist, und sich mithilfe ihrer Intuition und ihres Urteilsvermögens an unerwartete Situationen anpassen.
KI als Sidekick
Obwohl KI menschliche Psychotherapeuten nicht vollständig ersetzen kann, kann sie als wertvolles ergänzendes Instrument dienen. Fachkräfte im Bereich der psychischen Gesundheit verbringen über 20 % ihrer Arbeitszeit mit Verwaltungsaufgaben – und diese wertvolle Zeit hätte auch für die Patientenhilfe genutzt werden können. Durch die Automatisierung administrativer Aufgaben kann KI den Therapeuten Zeit sparen und Burnouts vorbeugen.
KI kann auch Patientendaten sammeln und analysieren, um Muster zu erkennen und Behandlungsentscheidungen anhand datengesteuerter Erkenntnisse zu treffen. Darüber hinaus kann KI verwendet werden, um den Fortschritt des Patienten zu verfolgen und personalisierte Behandlungspläne basierend auf den individuellen Bedürfnissen zu entwickeln
Zusammenfassend lässt sich sagen, dass KI zwar Fortschritte in der psychischen Gesundheitsversorgung bietet, die menschlichen Elemente der Psychotherapie jedoch nicht vollständig ersetzen kann. Empathie, Vertrauen, Intuition und Urteilsvermögen sind unersetzliche Eigenschaften, die Psychologen in die therapeutische Beziehung einbringen. KI kann als Hilfsmittel dienen, sollte jedoch in Verbindung mit menschlichem Fachwissen eingesetzt werden, um die Beziehung zwischen Therapeut und Patient zu verbessern und nicht zu ersetzen.
Foto: Vladyslav Bobuskyi, Getty Images
Stanley Efrem ist klinischer Direktor und Mitbegründer von Yung Sidekick. Er ist Psychotherapeut und Berater für psychische Gesundheit mit über einem Jahrzehnt Erfahrung in der Privatpraxis. Als außerordentlicher Professor am Institut für Psychodrama und Psychologische Beratung hat er zum Bereich des Psychodramas beigetragen und bedeutende psychodramatische Konferenzen geleitet. Zuvor war Stanley Chief Technology Officer und Mitbegründer von Stratagam, einer Unternehmenssimulationsplattform. Er war Mitbegründer von Yung Sidekick, um seinen Hintergrund in Psychodrama und Technologie zu nutzen, um innovative KI-Tools für Fachkräfte im Bereich der psychischen Gesundheit zu entwickeln.
Michael Reider ist CEO und Mitbegründer von Yung Sidekick. Er ist ein Serial Entrepreneur und Verfechter der psychischen Gesundheit mit über 10 Jahren Erfahrung in der Strategieberatung und im Executive Management. Bevor er Yung Sidekick mitbegründete, leitete Michael als CEO Bright Kitchen, eine in Zypern ansässige dunkle Küchenkette, und fungierte als General Manager bei Uber Eats. Michael hat einen MBA in strategischem Management, Marketing und Finanzen von der Kelley School of Business der Indiana University. Er nutzt seine vielfältigen Erfahrungen und seine Leidenschaft für psychische Gesundheit, um Yung Sidekick bei der Entwicklung von KI-Tools zu leiten, die die Therapieergebnisse sowohl für Therapeuten als auch für Patienten verbessern.
Dieser Beitrag erscheint über das MedCity Influencers-Programm. Über MedCity Influencer kann jeder seine Sicht auf Wirtschaft und Innovation im Gesundheitswesen auf MedCity News veröffentlichen. Klicken Sie hier, um herauszufinden, wie.