- OpenAI führt eine Sprachfunktion für ChatGPT ein.
- Ein OpenAI-Sicherheitsforscher hat vorgeschlagen, dass sich die neue Funktion wie eine Therapie anfühlt.
- ChatGPT als Therapeuten einzusetzen mag faszinierend klingen, ist aber keine gute Idee.
OpenAI wird eingeführt eine neue Sprachfunktion für ChatGPT In den nächsten zwei Wochen wird ein KI-Sprachbegleiter in die Taschen von Menschen gesteckt, die eine menschlichere Konversation mit dem Chatbot suchen.
Es gibt eine Sache, mit der man es wahrscheinlich nicht verwechseln sollte: einen Therapeuten, der viel unterwegs ist. OpenAI scheint jedoch keine Bedenken zu haben, wenn Benutzer sich öffnen ChatGPT für ein Herz-zu-Herz.
Am Dienstag sagte Lilian Weng, Leiterin Sicherheitssysteme bei OpenAI, schrieb auf X dass sie „gerade ein recht emotionales, persönliches Gespräch“ mit ChatGPT im Sprachmodus geführt habe. Sie sagte, sie habe mit ihr über die mentalen Belastungen gesprochen, die eine erfolgreiche Karriere mit sich bringt, darunter Stress und die Wahrung der Work-Life-Balance.
„Interessanterweise fühlte ich mich gehört und warm. Ich habe noch nie eine Therapie ausprobiert, aber das ist es wahrscheinlich? Probieren Sie es aus, besonders wenn Sie es normalerweise nur als Produktivitätswerkzeug verwenden“, schrieb Weng.
Ihre Erfahrung wurde verstärkt durch OpenAI-Präsident, Vorsitzender und Mitbegründer Greg Brockmander die Anekdote auf X erneut veröffentlichte und sagte: „Der ChatGPT-Sprachmodus ist eine qualitativ neue Erfahrung.“
Es könnte eine neue Erfahrung sein. Aber ist es sinnvoll? Viele in der KI- und breiteren Tech-Community sagen nein. OpenAI und Weng antworteten nicht sofort auf die Bitte von Insider um einen Kommentar außerhalb der normalen Arbeitszeiten.
Der Einsatz von Chatbots als Therapeuten könnte riskant sein
Timnit Gebru, ein einflussreicher Informatiker, spezialisiert auf KI-Ethik Forschung, hat auf Wengs Beitrag geantwortet indem es Bedenken äußerte, dass das KI-Sicherheitsteam von OpenAI die Probleme, die sich aus der Verwendung von Chatbots für Therapien ergeben, scheinbar kurz ignoriert hat.
Insbesondere machte Gebru auf Eliza aufmerksam, ein Computerprogramm, das in den 1960er Jahren von MIT-Professor Joseph Weizenbaum entwickelt wurde, als eine Art Psychotherapeut, der von einem Menschen eingegebene Kommentare aufnimmt und sie in eine Frage an den Benutzer umformuliert.
Es ist einer Technik namens sehr ähnlich Sokratisches Fragen. Dies wird von Therapeuten genutzt, um möglicherweise irrationale oder fragwürdige Annahmen eines Patienten über sich selbst oder andere zu hinterfragen, die zu Stress, schlechter Stimmung oder Angst führen.
„Ich habe das Gefühl, dass mich niemand mag“, hätten Sie zu Eliza sagen können. „Warum hast du das Gefühl, dass dich niemand mag?“ Eliza hätte vielleicht geantwortet. Allerdings verfügte Eliza nicht über die jahrelange Erfahrung, die ein Therapeut braucht, um einen Patienten auf einem langfristigen Weg der Lösung und Genesung zu begleiten.
Für Weizenbaum machte dies Eliza zu einem gefährlichen Werkzeug, insbesondere nachdem er gesehen hatte, wie leicht Menschen sich einlullen ließen, den Chatbot als eine praktikable Alternative zu einem Therapeuten zu betrachten. Dies führte dazu, dass er den größten Teil seiner Karriere damit verbrachte, vor möglichen Gefahren zu warnen.
Es gab natürlich auch andere Fälle, in denen Chatbots als Therapie eingesetzt wurden. Zu einem Zeitpunkt Die Amerikaner fühlen sich einsamer denn jeDa die Verfügbarkeit menschlicher Therapeuten knapp ist, können Chatbots in der Anfangsphase Hilfe leisten. Aber ihre Grenzen müssen klar kommuniziert werden.
Tom Insel, ein Psychiater und Neurowissenschaftler, schrieb Anfang des Jahres dass bei Behandlungen wie der kognitiven Verhaltenstherapie, die „stark strukturiert“ sind, zukünftige Versionen von KI-Chatbots möglicherweise „die gleiche Intervention liefern können, obwohl Untersuchungen gezeigt haben, dass nachhaltiges Engagement normalerweise die Einbeziehung eines menschlichen Therapeuten erfordert.“
Deshalb täte OpenAI gut daran, die Lehren von Eliza zu beherzigen. Margaret Mitchell, Ein KI-Ethikforscher und Wissenschaftler, der zuvor bei google gearbeitet hat, antwortete Weng von OpenAI mit einer einfachen Frage: „…Sie wissen, dass diese Modelle Menschen dazu bringen können, Schaden anzurichten, ja?“
Mehtab Khan, Fellow am Berkman Klein Center for Internet & Society der Harvard University, beschrieb Wengs Beitrag als „eine gefährliche Charakterisierung eines KI-Tools und auch ein weiteres Beispiel für die Vermenschlichung von KI, ohne darüber nachzudenken, wie bestehende Regeln gelten bzw. nicht gelten.“
Oder wie Calli Schroeder, globale Datenschutzberaterin beim Electronic Privacy Information Center, es ausdrückte: „Heilige Scheiße, benutze ChatGPT nicht als Therapie.“
JETZT ANSEHEN: Beliebte Videos von Insider Inc.
Wird geladen…