<S>10

10.000 Stunden/Getty Images

Fakten überprüft von Nick Blackmer

  • Einige Leute experimentieren im Internet mit dem Einsatz künstlicher Intelligenz anstelle einer echten Therapie bei psychischen Problemen.

  • Experten sagen, dass die Nutzung der Technologie als Therapeut vorerst wahrscheinlich nicht sicher ist, da sie eine Reihe von Vertraulichkeits- und Sicherheitsbedenken aufwirft.

  • Aber angesichts der häufigen Zugänglichkeits- und Kostenprobleme könnte die Therapie aufgrund des technischen Fortschritts möglicherweise durch KI ergänzt werden, sagten einige Experten.

<p>10'000 Stunden/Getty Images</p>
<p>10'000 Stunden/Getty Images</p>

10.000 Stunden/Getty Images

Künstliche Intelligenz hat einen Moment Zeit. So wie KI-gestützte Chatbots es mögen chatgpt“ rel=“nofollow noopener“ target=“_blank“ data-ylk=“slk:ChatGPT;elm:context_link;itc:0″ class=“link „>ChatGPT Aufgrund der zunehmenden Beliebtheit testen immer mehr Menschen die Technologie bei Aufgaben wie der Beantwortung mathematischer Fragen, der Übersetzung von Wörtern oder Sätzen und sogar der Erstellung von Rezeptideen oder Einkaufslisten.

Einige Leute in den sozialen Medien haben auch begonnen, diese KI-Chatbots als provisorische Therapeuten zu nutzen. Durch die Präsentation der Technologie mit Psychische Gesundheit Bei Fragen oder Krisen können Menschen Rat erhalten – oft kostenlos –, ohne Zeit oder Geld für Therapiesitzungen aufwenden zu müssen.

Ein TikTok-Benutzer sagte sogar, er habe seinen Therapeuten durch einen KI-Chatbot ersetzt. „Heute habe ich die Therapie offiziell abgebrochen, weil ich gerade den besten kostenlosen Ersatz gefunden habe: die Verwendung von ChatGPT“, sagte der Sagte TikTokerund empfehle anderen, vielleicht das Gleiche zu tun.

Dieser Rat ist jedoch für Gesundheitsdienstleister, die sich auf die psychische Gesundheit konzentrieren, besorgniserregend.

„Seien Sie skeptisch. [AI chatbots] sind nicht dazu gedacht, eine Therapie, Psychotherapie oder irgendeine Art von psychiatrischer Intervention zu ersetzen.“ Bruce Arnow, PhDProfessor an der Abteilung für Psychiatrie, stellvertretender Vorsitzender und Chefpsychologe an der Stanford University, sagte Gesundheit. „Dafür sind sie einfach noch nicht weit genug, und wir wissen nicht, ob sie es jemals schaffen werden.“

Hier erfahren Sie, was erfahrene Psychologen dazu zu sagen hatten, warum der Einsatz von KI als Therapeut Anlass zur Sorge geben könnte, welche Best Practices es bei der Suche nach Hilfe bei psychischen Problemen gibt und wie KI in Zukunft sicher eingesetzt werden könnte.

Verwandt:Eine schlechte körperliche Gesundheit kann auf eine schlechte psychische Gesundheit hinweisen – Experten diskutieren über den Zusammenhang zwischen Geist und Körper

Wie nutzen Menschen KI-Chatbots zur Therapie?

Es kann schwierig sein, sich vorzustellen, wie eine „Therapiesitzung“ mit KI aussehen könnte. Für die meisten Online-Benutzer bedeutet dies jedoch lediglich das Versenden von Nachrichten mit einem KI-Chatbot, der es den Menschen ermöglicht, spezifische und oft persönliche Fragen zu stellen.

Siehe auch  Chinesischer Wissenschaftler behauptet, ChatGPT sei ideologisch voreingenommen

Ein TikTok-Benutzer führten ihre Follower durch ein Gespräch, das sie mit ChatGPT führten, und wies den Chatbot an, „als mein Therapeut zu fungieren.“ Ich brauche Unterstützung und Rat, was ich in bestimmten Situationen tun soll, mit denen ich zu kämpfen habe.“

ChatGPT antwortete, dass es „hier ist, um zu unterstützen.“ [them] und geben Sie Ratschläge“, bevor Sie weitere Fragen zu den Bedenken des Erstellers stellen und mögliche Lösungen anbieten. Es wurde auch empfohlen, professionelle Hilfe in Anspruch zu nehmen, wenn sich die Ängste immer noch überwältigend anfühlten.

Ein anderer TikTok-Ersteller hat Screenshots seiner Konversation mit einem KI-Chatbot geteilt, der in die Social-Media-App Snapchat eingebettet ist. Wenn der Benutzer dem Chatbot Fragen zu Problemen in einer Beziehung stellte, es reagierte„Es ist verständlich, wissen zu wollen, was mit einem Freund los ist. Aber es ist wichtig, ihre Grenzen zu respektieren und ihnen Raum zu geben, wenn es das ist, was sie brauchen.“

Noch andere Benutzer haben es getan präsentiert ChatGPT mit Selbstmordgedanken. Selbst in diesen Situationen scheine die Technologie bemerkenswert gut zu reagieren, sagte er Olivia Uwamahoro Williams, PhDAssistenzprofessor für Beraterausbildung an der University of West Georgia und Co-Vorsitzender des Artificial Intelligence Interest Network der American Counseling Association.

„Sie alle würden sehr fundierte Reaktionen hervorrufen“, sagte sie Gesundheit. „Einschließlich Ressourcen, nationaler Ressourcen – das war also gut zu sehen. Ich dachte: „Okay, diese Dinge sind sehr genau.“ Die erzeugte Reaktion ähnelt sehr einem Berater, einer Art Therapeuten.‘“

Verwandt:Ich habe Online-Therapie bei drei Unternehmen ausprobiert. Hier ist, was ich gelernt habe

Bedenken hinsichtlich der Verwendung von KI-Chatbots für die Therapie

Trotz der scheinbar guten Antworten der Chatbots auf Fragen zu psychischen Problemen sind sich Psychologen einig, dass sie einfach KI statt herkömmlicher Chatbots verwenden Therapie ist noch keine sichere Option.

Auf der grundlegendsten Ebene gibt es einige Bedenken, dass ChatGPT oder andere KI-Chatbots bei Fragen unsinnige oder ungenaue Informationen preisgeben, erklärte Arnow. ChatGPT selbst warnt Benutzer dass die Technologie „gelegentlich falsche Informationen generieren kann“ oder „gelegentlich schädliche Anweisungen oder voreingenommene Inhalte produzieren kann“.

Darüber hinaus sagte Uwamahoro Williams, dass der Versuch, KI auch als Therapeut einzusetzen, einige logistische Probleme mit sich bringt.

Therapeuten seien ausgebildet und zugelassen, das bedeute, dass sie einen bestimmten Praxisstandard einhalten müssten, erklärte sie. Für KI-Chatbots gelten nicht dieselben Richtlinien.

„An diesem Prozess ist keine Person beteiligt. Die erste Sorge, die ich habe, ist also die Haftung“, sagte sie. „Es gibt einen Mangel an Sicherheit, über den wir offen und ehrlich sein müssen, denn wenn etwas passiert, wer wird dann zur Verantwortung gezogen?“

Siehe auch  ChatGPT kann zur Aufklärung von Patienten mit interventioneller Radiologie beitragen

In ähnlicher Weise bedeute der Einsatz von KI als Therapeut, sensible Informationen ins Internet zu stellen, fügte Uwamahoro Williams hinzu, was für manche Menschen ein Datenschutzproblem darstellen könnte.

Im Fall von ChatGPT sammelt und zeichnet die Website Gespräche auf, die sie angeblich dazu nutzt, die KI besser zu trainieren. Benutzer können sich abmelden oder ihr Konto löschen oder ihre Konversationen löschen, wobei letztere nach 30 Tagen aus den Systemen von ChatGPT gelöscht werden.

Uwamahoro Williams befürchtet zudem, dass Ratschläge eines Chatbots von der hilfesuchenden Person falsch interpretiert werden könnten, was die Situation auf lange Sicht verschlimmern könnte.

Alle diese Bedenken lassen sich jedoch auf ein Hauptproblem zurückführen, nämlich darauf, dass KI genau das ist – künstlich.

„Ich denke, in Zukunft wird es uns – sogar Therapeuten – wahrscheinlich in vielerlei messbarer Hinsicht übertreffen. Aber eines kann es nicht: ein Mensch sein.“ Russel Fulmer, PhDSenior Associate Professor an der Xi’an Jiaotong-Liverpool University und künftiger Professor und Direktor für Beratung an der Husson University, sagte Gesundheit. „Die therapeutische Beziehung ist ein wirklich großer Faktor. Das erklärt einen Großteil der positiven Veränderungen, die wir sehen.“

Traditionelle Therapie ermöglicht es dem Anbieter und dem Patienten, eine emotionale Bindung aufzubauen und die Ziele der Therapie klar zu umreißen, erklärte Arnow.

„KI leistet wirklich gute Arbeit beim Sammeln einer Menge Wissen über ein Kontinuum hinweg“, sagte Uwamahoro Williams. „Derzeit ist es nicht in der Lage, Sie als einzigartiges Individuum und Ihre spezifischen, einzigartigen Bedürfnisse genau zu kennen.“

Verwandt:Laut Studie ist Gesprächstherapie gut für die Herzgesundheit

Werden KI-Chatbots jemals eine sichere Therapieoption sein?

Obwohl sich Psychologen weitgehend darin einig sind, dass der Einsatz von KI als Ersatz für einen Therapeuten nicht sicher ist, sind sie sich ein wenig darüber einig, wann und ob die Technologie jemals nützlich sein könnte.

Arnow ist etwas skeptisch, ob KI-Chatbots jemals so weit fortgeschritten sein könnten, dass sie Hilfe auf dem gleichen Niveau wie ein menschlicher Therapeut leisten könnten. Aber Fulmer und Uwamahoro Williams sind etwas zufriedener mit der Idee, dass Chatbots möglicherweise zusätzlich zur traditionellen Therapie eingesetzt werden.

„Diese Plattformen können als Ergänzung zu der Arbeit genutzt werden, die Sie aktiv mit einem professionellen Anbieter für psychische Gesundheit leisten“, sagte Uwamahoro Williams.

Das Chatten mit einer KI könnte sogar als ein weiteres Werkzeug zur weiteren Arbeit außerhalb der Therapie betrachtet werden, ähnlich wie Journaling- oder Meditations-Apps, fügte sie hinzu.

Siehe auch  Lehrer werden nie wissen können, ob Schüler KI verwenden, OpenAI ist formal

Es gibt sogar einige Chatbot-KIs, die speziell für Zwecke der psychischen Gesundheit getestet werden, wie z Woebot-Gesundheit oder Leben. Möglicherweise sind diese eine bessere Option, da sie speziell für die Bearbeitung von Fragen zur psychischen Gesundheit entwickelt wurden.

Elomia sagt zum Beispiel, dass sie über eine Sicherheitsfunktion verfügen, bei der Menschen eingreifen, wenn jemand mit einem echten Therapeuten oder einer Hotline sprechen muss, und Woebot sagt, dass ihre KI auf „klinisch getesteten Therapieansätzen“ basiert.

Die meisten dieser Programme – zusätzlich zur KI im Allgemeinen – werden jedoch noch entwickelt und getestet, sodass es wahrscheinlich zu früh ist, sie endgültig zu vergleichen, sagte Fulmer.

Die Online-KI-Therapie kann der Realität sicherlich nicht das Wasser reichen – zumindest im Moment –, waren sich Fulmer und Arnow einig. Es bleibt jedoch die Tatsache, dass viele Menschen keinen Zugang zu psychiatrischer Versorgung haben – eine Therapie kann unglaublich teuer sein, viele Therapeuten haben keinen Platz für neue Klienten und anhaltende Stigmatisierung hält Menschen davon ab, die Hilfe zu bekommen, die sie brauchen.

„Ich denke, es gibt einen Unterschied zwischen meinen Idealen und der Anerkennung der Realität“, sagte Fulmer. „ChatGPT und einige dieser Chatbots bieten eine skalierbare Lösung, die in vielen Fällen relativ kostengünstig ist. Und sie können ein Teil des Puzzles sein. Und viele Menschen profitieren davon.“

Wenn nur eine Person irgendeinen Nutzen daraus gezogen hat, KI als Therapeutin zu behandeln, dann sei die Vorstellung, ob sie funktionieren könnte, zumindest eine Überlegung wert, fügte Fulmer hinzu.

Laut Experten könnte ChatGPT vorerst nützliche Anwendungen haben, um Menschen dabei zu helfen, sich selbst auf psychische Störungen zu „screenen“. Der Bot könnte jemanden durch häufige Symptome führen, um ihm bei der Entscheidung zu helfen, ob er professionelle Hilfe oder Diagnose benötigt.

KI könnte auch dabei helfen, neue Berater auszubilden und Psychologen dabei zu helfen, mehr darüber zu erfahren, welche Strategien am effektivsten sind, sagten Arnow und Uwamahoro Williams.

Wenn die KI in den nächsten Jahren Fortschritte macht, wird sie möglicherweise mehr Anwendung in der Therapie finden, sagte Fulmer, aber sie ist möglicherweise immer noch nicht für jeden geeignet.

„Derzeit gibt es keinen Ersatz für einen menschlichen Berater“, sagte Fulmer. „[AI] Da es große Datenmengen synthetisiert, bietet es einige nützliche Informationen. Aber nur ein echter Therapeut kann Sie kennenlernen und seine Antworten und seine Anwesenheit auf Sie abstimmen.“

Weitere Gesundheitsnachrichten finden Sie hier apple-news-7096415″ rel=“nofollow noopener“ target=“_blank“ data-ylk=“slk:sign up for our newsletter!;elm:context_link;itc:0″ class=“link „>Melden Sie sich für unseren Newsletter an!

Lesen Sie den Originalartikel auf Gesundheit.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein