Ich habe keinen Therapeuten gefunden, als ich zum ersten Mal das Gefühl hatte, einen zu brauchen, und auch nicht, als ich endlich die Energie fand, nach Therapeuten mit Praxen in meiner Nähe zu googeln. Ich fand keinen Monat später, als meine Ärztin nach einem Blick auf die Ergebnisse meines Depressions-Screenings ihren nächsten Termin verschob, eine Liste mit Therapeuten erstellte und mir half, E-Mails an jeden von ihnen zu senden und zu fragen, ob sie neue Behandlungen in Anspruch nehmen würden Patienten. Es dauerte ein Jahr, bis meine Therapeutensuche endete, weil eine Freundin, die wegzog, mir den Namen der Person nannte, die sie behandelt hatte.
Ich hatte Glück: Zu meinem Vollzeitjob gehörte auch die Krankenversicherung. Ich lebte in einer Gegend mit vielen Fachleuten für psychische Gesundheit und hatte die Möglichkeit, Therapeuten in Betracht zu ziehen, die nicht im Netzwerk waren. Viele Menschen, die versuchen, psychiatrische Hilfe in Anspruch zu nehmen, tun dies ohne die institutionellen, sozialen oder finanziellen Ressourcen, die ich hatte.
Dieser fehlende Zugang, der durch eine landesweite Krise der psychischen Gesundheit und einen Mangel an Therapeuten in den USA angeheizt wird – ganz zu schweigen von einem Gesundheitssystem, das es für viele extrem schwierig machen kann, einen netzinternen Anbieter zu finden – ist ein Problem braucht dringend Lösungen. Wie bei jedem solchen Problem gibt es Leute, die sagen, die Lösung sei Technologie.
Geben Sie AI ein. Da generative KI-Chatbots einem breiteren Nutzerkreis zugänglich gemacht wurden, haben einige damit begonnen, leicht verfügbare, vielseitige Tools wie chatgpt als Therapeuten zu nutzen. Vize habe mit einigen dieser Benutzer gesprochen Anfang dieses Jahres stellte er fest, dass sich in den sozialen Medien anekdotische Berichte über Menschen verbreitet hatten, die ihre Erfahrungen mit Chatbots lobten. Ein Redditor hat sogar geschrieben eine Anleitung zum „Jailbreaking“ ChatGPT, um die Barrieren des Chatbots zu umgehen, die die Bereitstellung von Ratschlägen zur psychischen Gesundheit verhindern.
Aber ChatGPT ist nicht als Therapeut für irgendjemanden konzipiert. Es ist nicht an die Datenschutz- oder Rechenschaftspflichten gebunden, die die Praxis und Ethik menschlicher Therapeuten leiten. Es hat zwar Konsequenzen, wenn ein Chatbot beispielsweise eine Quelle für eine Forschungsarbeit fabriziert, doch diese Konsequenzen sind bei weitem nicht so schwerwiegend wie der potenzielle Schaden, der dadurch entsteht, dass ein Chatbot gefährliche oder ungenaue medizinische Ratschläge für jemanden mit einer ernsthaften psychischen Erkrankung erteilt.
Dies bedeutet nicht unbedingt, dass KI als Ressource für die psychische Gesundheit nutzlos ist. Betsy Stade, ein Psychologe und Postdoktorand am Stanford Institute for Human-Centered AI, sagt, dass jede Analyse von KI und Therapie auf derselben Metrik basieren sollte, die in der Psychologie zur Bewertung einer Behandlung verwendet wird: Verbessert sie die Patientenergebnisse? Stade, der Hauptautor von a Arbeitspapier zur verantwortungsvollen Einbindung generativer KI in die psychische Gesundheitsversorgung, ist optimistisch, dass KI Patienten und Therapeuten dabei helfen kann, eine bessere Versorgung mit besseren Ergebnissen zu erhalten und bereitzustellen. Aber es ist nicht so einfach, ChatGPT zu starten.
Wenn Sie Fragen zum aktuellen Stand der KI-Therapie haben – oder was sie überhaupt ist – haben wir ein paar Antworten.
Was ist ein KI-Therapeut?
Der Begriff „KI-Therapeut“ wird für verschiedene Dinge verwendet. Erstens gibt es spezielle Anwendungen, die speziell zur Unterstützung der psychischen Gesundheitsversorgung entwickelt wurden und von denen einige für die Öffentlichkeit zugänglich sind, andere nicht. Und dann gibt es noch KI-Chatbots, die sich selbst als eine Art Therapie darstellen. Diese Apps existierten lange vor Tools wie ChatGPT. Woebot beispielsweise ist ein 2017 gestarteter Dienst, der auf der Grundlage von Hilfestellungen helfen soll kognitive Verhaltenstherapie; es gewann an Popularität während der Pandemie als Hilfsmittel für die psychische Gesundheit einfacher und günstiger zugänglich als eine Therapie.
In jüngerer Zeit gibt es eine starke Verbreitung von kostenlosen oder kostengünstigeren Chatbots, die dank großer Sprachmodelle wie dem, das ChatGPT zugrunde liegt, unheimlich gesprächige Interaktionen ermöglichen können. Einige haben sich dieser neuen Generation KI-gestützter Tools zur Unterstützung der psychischen Gesundheit zugewandt, eine Aufgabe, für die sie nicht konzipiert waren. Andere haben es unwissentlich getan. Im vergangenen Januar war er Mitbegründer der Plattform für psychische Gesundheit KoKo angekündigt dass es Tausenden von Benutzern, die glaubten, mit einem echten Menschen zu sprechen, KI-erstellte Antworten gegeben hatte.
Es ist erwähnenswert, dass die Diskussion über Chatbots und Therapie parallel zur Erforschung der Rolle stattfindet, die KI in der psychiatrischen Versorgung außerhalb der Nachahmung einer Therapiesitzung spielen könnte. Beispielsweise könnten KI-Tools menschlichen Therapeuten dabei helfen, beispielsweise ihre Notizen zu organisieren und sicherzustellen, dass Standards für bewährte Behandlungen eingehalten werden, was nachweislich die Ergebnisse für Patienten verbessert.
Warum mögen Menschen Chatbots für die Therapie, auch wenn sie nicht dafür konzipiert wurden?
Es gibt einige Hypothesen darüber, warum so viele Therapiesuchende auf KI-gestützte Chatbots reagieren. Vielleicht finden sie bei diesen Bots emotionale oder soziale Unterstützung. Aber das Ausmaß der Unterstützung ist wahrscheinlich von Person zu Person unterschiedlich und wird sicherlich von ihren psychischen Gesundheitsbedürfnissen und ihren Erwartungen an die Therapie beeinflusst – sowie davon, was eine App für sie bieten kann.
„Therapie bedeutet für verschiedene Menschen viele verschiedene Dinge, und Menschen kommen aus vielen verschiedenen Gründen zu Therapeuten“, sagt Lara Honos-Webb, eine klinische Psychologin, die sich auf ADHS spezialisiert hat, und Mitbegründerin eines Startups, das denjenigen helfen soll, die mit ADHS zu kämpfen haben Zustand. Diejenigen, die ChatGPT nützlich fanden, würden diese Tools möglicherweise auf der Ebene „Problem, Lösung“ angehen, sagte sie. Tools wie diese scheinen ziemlich gut darin zu sein, Gedanken neu zu formulieren oder eine „Verhaltensaktivierung“ bereitzustellen, beispielsweise eine Liste mit gesunden Aktivitäten, die man ausprobieren sollte. Stade fügte hinzu, dass Experten aus wissenschaftlicher Sicht nicht wirklich wissen, was die Menschen in diesem Fall für sie arbeiten sehen.
„Abgesehen von sehr subjektiven, qualitativen Berichten darüber, was einige Leute tun, und einigen Leuten, die auf Reddit über ihre Erfahrungen berichten, haben wir eigentlich keine gute Darstellung dessen, was da draußen passiert“, sagte sie.
Was sind also die Risiken einer Chatbot-Therapie?
Hier gibt es einige offensichtliche Bedenken: Datenschutz ist ein großes Thema. Dazu gehört der Umgang mit den Trainingsdaten, die dazu dienen, generative KI-Tools besser in der Lage zu machen, Therapien nachzuahmen, sowie die Privatsphäre der Benutzer, die am Ende vertrauliche medizinische Informationen an einen Chatbot weitergeben, während sie Hilfe suchen. In vielen dieser Systeme sind in ihrer heutigen Form auch Vorurteile eingebaut, die oft die größeren systemischen Ungleichheiten widerspiegeln und verstärken, die bereits in der Gesellschaft bestehen.
Aber das größte Risiko einer Chatbot-Therapie – unabhängig davon, ob sie schlecht konzipiert ist oder von Software bereitgestellt wird, die nicht für die psychische Gesundheit entwickelt wurde – besteht darin, dass sie Menschen schaden könnte, weil sie keine gute Unterstützung und Pflege bietet. Eine Therapie ist mehr als ein Chatprotokoll und eine Reihe von Vorschlägen. Honos-Webb, die generative KI-Tools wie ChatGPT verwendet, um ihre Gedanken zu organisieren, während sie Artikel über ADHS schreibt, jedoch nicht für ihre Praxis als Therapeutin, stellte fest, dass Therapeuten viele Hinweise und Nuancen aufgreifen, auf die die KI nicht vorbereitet ist.
Stade stellt in ihrem Arbeitspapier fest, dass große Sprachmodelle zwar eine „vielversprechende“ Fähigkeit haben, einige der für die Psychotherapie erforderlichen Fähigkeiten zu vermitteln, es jedoch einen Unterschied zwischen der „Simulation von Therapiefähigkeiten“ und ihrer „effektiven Umsetzung“ gibt. Sie wies auf besondere Bedenken hinsichtlich der Art und Weise hin, wie diese Systeme mit komplexen Fällen umgehen könnten, einschließlich solchen, bei denen es um Selbstmordgedanken, Drogenmissbrauch oder bestimmte Lebensereignisse geht.
Honos-Webb nannte das Beispiel einer älteren Frau, die kürzlich eine Essstörung entwickelte. Eine Behandlungsebene könnte sich speziell auf dieses Verhalten konzentrieren: Wenn jemand nicht isst, was könnte ihm beim Essen helfen? Aber ein guter Therapeut wird mehr davon aufgreifen. Im Laufe der Zeit könnten Therapeut und Patient eine Verbindung zwischen jüngsten Lebensereignissen herstellen: Vielleicht ist der Ehemann der Patientin kürzlich in den Ruhestand gegangen. Sie ist wütend, weil er plötzlich die ganze Zeit zu Hause ist und ihren Platz einnimmt.
„Ein großer Teil der Therapie besteht darin, auf den entstehenden Kontext zu reagieren, auf das, was man sieht, was man bemerkt“, erklärte Honos-Webb. Und die Wirksamkeit dieser Arbeit hängt direkt von der sich entwickelnden Beziehung zwischen Therapeut und Patient ab.
Aber kann KI helfen, die Krise beim Zugang zur psychischen Gesundheitsversorgung zu lösen?
Bei ethischer Umsetzung könnte KI zu einem wertvollen Instrument werden, um Menschen dabei zu helfen, ihre Ergebnisse bei der Suche nach psychiatrischer Versorgung zu verbessern. Stade wies jedoch darauf hin, dass die Gründe für diese Krise über den Bereich der Technologie hinausgehen und eine Lösung erfordern würden, die nicht einfach eine neue App sei.
Als ich Stede nach der Rolle von KI bei der Lösung der Zugangskrise in der psychiatrischen Versorgung in den USA fragte, sagte sie: „Ich glaube, wir brauchen eine allgemeine Gesundheitsversorgung.“ Es gibt so viel, was außerhalb des KI-Bereichs passieren muss.“
„Dennoch“, fügte sie hinzu, „denke ich, dass diese Tools einige spannende Möglichkeiten bieten, zu erweitern und Lücken zu schließen.“
Eine Version dieser Geschichte wurde auch im Newsletter von Vox Technology veröffentlicht. Hier anmelden Damit Sie den nächsten nicht verpassen!