Eine OpenAI-Beamtin geriet im September auf X (ehemals Twitter) in die Kritik, weil sie ihr Gespräch mit chatgpt mit einer Therapie verglich, obwohl sie zugab, noch nie zuvor eine Therapie erlebt zu haben.

In der X-Biografie von Lilian Weng heißt es, sie habe bei dem Startup hinter dem viralen Chatbot an der KI-Sicherheit gearbeitet, während auf der Website des Unternehmens vermerkt sei, dass sie an der angewandten KI-Forschung gearbeitet habe.

„Hatte gerade ein recht emotionales, persönliches Gespräch mit ChatGPT im Sprachmodus, in dem es um Stress und Work-Life-Balance ging. Interessanterweise fühlte ich mich gehört und warm. Ich habe noch nie eine Therapie ausprobiert, aber das ist es wahrscheinlich? Probieren Sie es aus, besonders wenn Sie es normalerweise nur als Produktivitätstool verwenden“, postete sie am 26. September auf X.

Nur einen Tag zuvor gab OpenAI bekannt, dass es ChatGPT mit Sprach- und Bildfunktionen aktualisiert hat, sodass Benutzer damit chatten, Fotos teilen und Antworten anhören können. Die Sprachmodusfunktion steht jetzt allen Benutzern zur Verfügung.

OpenAI schlug vor, dass Menschen dieses Upgrade nutzen könnten, um Streitigkeiten am Familientisch beizulegen oder sich sogar eine Gute-Nacht-Geschichte vorlesen zu lassen.

(Für Top-Technologie-News des Tages abonnieren Sie unseren Tech-Newsletter Today's Cache)

Weng wurde dafür kritisiert, dass sie ChatGPT offenbar als Tool zur Erbringung therapeutischer Dienste bewarb, und insbesondere nachdem sie zugegeben hatte, dass sie nicht qualifiziert sei, sich zu der Therapieerfahrung zu äußern. Andere beschuldigten sie, unter den ELIZA-Effekt zu geraten.

Was ist der ELIZA-Effekt?

Damit ist das Phänomen gemeint, dass Menschen denken, Computerprogramme oder ähnliche Systeme seien aufgrund ihrer Reaktion auf Benutzereingaben in der Lage, menschliche Emotionen oder Funktionen auszulösen.

Der ELIZA-Effekt ist nach einem Computerprogramm aus den 1960er Jahren benannt, das ebenfalls auf Benutzer reagierte, allerdings mit sehr einfachen Sätzen, die ihre ursprünglichen Wörter widerspiegelten. Dieses Programm wurde MIT-Professor Joseph Weizenbaum zugeschrieben.

Ein Benutzer, der Antworten von ChatGPT erhält, glaubt möglicherweise, dass er eine sinnvolle oder für beide Seiten vorteilhafte Interaktion hat, die irgendwie mit einer menschlichen Konversation vergleichbar ist, anstatt ChatGPT als ein großes Sprachmodell zu betrachten, das lediglich Daten generiert. Dies ist ein Beispiel für den ELIZA-Effekt.

Siehe auch  ChatGPT prognostiziert den Aktienkurs von Take-Two am Veröffentlichungstag von GTA 6

Einen Tag später veröffentlichte Weng, dass die Interaktionen der Menschen mit KI-Modellen unterschiedlich seien und dass ihre Aussagen ihre persönliche Meinung seien.

Dennoch ist der OpenAI-Mitarbeiter bei weitem nicht die einzige Person, die sich Anfang des Jahres an ChatGPT – die am schnellsten wachsende Verbraucher-App der Welt – gewandt hat, um Lösungen für ihre psychischen Probleme zu finden, oder auch nur um einen „warmen“ Zuhörer zu finden.

ChatGPT: kostenlos und rund um die Uhr verfügbar

Sanskriti*, 29, eine in Mumbai lebende Journalistin, nimmt an einer (von Menschen geleiteten) Therapie teil, hat sich aber auch an ChatGPT gewandt, um Hilfe bei Herausforderungen im Leben zu bekommen, obwohl ihr bewusst ist, dass dies nicht empfohlen wird und der Chatbot falsche Antworten generiert mal.

„Ich buche eine Therapie nur dann, wenn ich Klarheit brauche, wenn die Angstzustände außer Kontrolle geraten oder wenn mir ein neues Muster auffällt, weil die Therapie teuer ist und sie normalerweise dann auftritt, wenn man Angst hat.“ [in] „Mitten in der Nacht oder zu einer seltsamen Stunde und Sie möchten sich schnell beruhigen“, sagte sie.

Sie erklärte, dass ihre Angst normalerweise darauf zurückzuführen sei, dass sie etwas nicht wusste oder irreführende Informationen hatte. ChatGPT half ihr, die Gewissheit zu finden, die sie brauchte, um sich zu beruhigen.

„Therapeuten können nicht im Morgengrauen verfügbar sein“, betonte sie.

Sanskriti bemerkte, dass ChatGPT bei der Eingabe von Fragen in den Chatbot, die besser zu einem menschlichen Therapeuten passen würden, Ratschläge gab und sie mit einem Haftungsausschluss dazu ermutigte, die Dienste eines qualifizierten Fachmanns in Anspruch zu nehmen.

„Ist ChatGPT mit einer menschlichen Therapie vergleichbar? Natürlich nicht“, sagte Sanskriti. „Ich würde sagen, dass ChatGPT wirklich hilft, aber ich denke, es gibt viel Kommunikation mit einem menschlichen Therapeuten. Sie müssen zum Schreiben keine bestimmten Formate verwenden [to a human therapist]. Bei ChatGPT müssen Sie die Befehle kennen und wissen, wie ChatGPT reagiert.“

Siehe auch  OpenAI behebt die Faulheit von GPT-4 mit einem neuen, aktualisierten Modell

Der Hindu habe die kostenlose ChatGPT-Version mit dem Sprachmodus ausprobiert, bei dem Benutzer zwischen freundlichen männlichen, weiblichen und geschlechtsneutralen Stimmen wählen konnten, um gesprochene Antworten zu erhalten. Nachdem sie sich über die ChatGPT-App darüber beschwert hatte, dass der Benutzer an einer Erkältung leide, zeigte sich eine Stimme namens „Ember“ mitfühlend und schlug Hausmittel wie warme Suppe vor, bevor sie Hilfe bei spezifischeren Symptomen anbot.

An die digitale Tür klopfen

Laut Jim Downs, Historiker und Autor des Buches, nutzen viele Menschen weltweit das Internet, um privat nach Gesundheitsinformationen zu suchen Krankheiten des Imperiums: Wie Kolonialismus, Sklaverei und Krieg die Medizin veränderten.

„Web-MD und andere Online-Ressourcen wie ChatG[P]T, ermöglichen eine Anonymität, die sich viele Patienten wünschen, um das Stigma zu vermeiden, als ungesund oder krank abgestempelt zu werden. „In der Vergangenheit hatten Patienten Angst, dass Ärzte ihr Verhalten, ihren Körper und sogar ihre Identität pathologisieren würden“, sagte Downs.

Allerdings sind KI-Chatbots möglicherweise nicht in der Lage, diese Kluft zwischen Arzt und Patient zu überbrücken. Forscher haben behauptet, dass KI-Chatbots größtenteils Ergebnisse generieren, die Indiens privilegierte Kasten und Wirtschaftsklassen begünstigen, während sie möglicherweise marginalisierte Gemeinschaften ausschließen, berichtete Reuters im September. Im Gesundheitssektor führte ChatGPT nachweislich zu falschen Ergebnissen und behauptete, es gäbe physiologische Unterschiede im Körper von Schwarzen im Vergleich zu anderen Rassen, so eine Studie in der USA Digitale Medizin Tagebuch.

Rückblickend erklärte Downs, dass Bereiche wie die Epidemiologie (die Erforschung von Krankheiten und deren Auswirkungen auf Gruppen von Menschen) weitgehend aus der Sklaverei oder dem Kolonialismus hervorgegangen seien, wobei Ärzte die Ausbreitung von Krankheiten in unterworfenen Bevölkerungsgruppen untersuchten – etwa bei den Indianern unter britischer Herrschaft im 19. Jahrhundert Jahrhundert.

„Dasselbe Muster gilt für die Entstehung der Psychologie als Fachgebiet. „Es ging aus spezifischen historischen Fallstudien hervor, in denen Inder und andere farbige Menschen auf der ganzen Welt als den weißen Europäern unterlegen eingestuft wurden“, sagte Downs.

Siehe auch  ChatGPT – wie dieses einjährige Kind das Hochschulsystem verändert

Er verwies auf das Buch des Gelehrten Sunil Bhatia Dekolonisierende Psychologie, in dem untersucht wird, wie die frühe Psychologie auf unwissenschaftlichen Vorstellungen von der Vorherrschaft der Weißen über kolonisierte Indianer basierte. Downs betonte, wie wichtig es sei, auch heute noch mehrere Kulturen und komplexe Identitäten bei der Erkennung von Gesundheitszuständen einzubeziehen.

„Deshalb müssen wir misstrauisch gegenüber KI-generierten Verständnissen von Gesundheit und Krankheit sein, da sie möglicherweise eurozentrische Verständnisse der Medizin propagieren, die die kulturellen Besonderheiten der Menschen in Indien und in anderen Kulturen auf der ganzen Welt nicht berücksichtigen“, sagte er.

Eine Notlösung?

Sanskriti stellte fest, dass die Suche nach dem richtigen (menschlichen) Therapeuten ein Prozess von Versuch und Irrtum sei, betonte jedoch, dass es immer noch wichtig sei, einen zu finden.

„Ich fühle mich wohler, wenn ich mit einem Therapeuten spreche, weil es ein entspannteres Gespräch ist. Ihre Einsichten sind tiefer. Es stammt auch aus den vorherigen Sitzungen“, sagte sie und erklärte, wie ihr Therapeut Auslöser identifizieren oder bestimmte Anekdoten mit ihrer Kindheit in Verbindung bringen konnte – was ChatGPT nicht kann.

Andererseits erinnerte sich Sanskriti daran, wie ChatGPT ihr geholfen hat, als sie zu Hause mit einem medizinischen Notfall konfrontiert war. Der Chatbot beantwortete einige ihrer gesundheitlichen Zweifel, sodass sie entscheiden konnte, an welche Art von Spezialisten sie sich wenden sollte und was ihr nächster Schritt sein sollte. Ihr Therapeut wäre weder qualifiziert noch berechtigt gewesen, in diesem Bereich zu helfen.

„Es ist nicht vielschichtig, es ist nicht aufschlussreich. Aber ich habe manchmal das Gefühl, dass ChatGPT es schafft, meine Angst für genau diesen Moment zu lindern“, gab Sanskriti zu.

(*Name aus Datenschutzgründen geändert)

Dies ist ein Premium-Artikel, der ausschließlich unseren Abonnenten zur Verfügung steht. Jeden Monat mehr als 250 solcher Premium-Artikel lesen

Sie haben Ihr kostenloses Artikellimit ausgeschöpft. Bitte unterstützen Sie Qualitätsjournalismus.

Sie haben Ihr kostenloses Artikellimit ausgeschöpft. Bitte unterstützen Sie Qualitätsjournalismus.

Du hast gelesen {{data.cm.views}} aus {{data.cm.maxViews}} kostenlose Artikel.

Dies ist Ihr letzter kostenloser Artikel.

5/5 - (155 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein