Ein leitender Mitarbeiter von OpenAI wurde für den Vergleich mit der neuen Version kritisiert ChatGPT an Therapeuten. Auf Ihrem Profil auf X (Twitter), Lilian WengLeiterin der Sicherheitssysteme bei OpenAI, schrieb: „Ich hatte gerade ein sehr emotionales und persönliches Gespräch mit ChatGPT im Sprachmodus, in dem es um Stress und Work-Life-Balance ging“, und fügte hinzu, dass sie sich während des Gesprächs „gehört“ gefühlt habe.
Entsprechend der Website FuturismusWeng fuhr mit dem Bericht über die Erfahrung fort, indem er sagte: „Ich habe noch nie zuvor eine Therapie ausprobiert, aber das ist es wahrscheinlich, oder? Probieren Sie es doch mal aus, vor allem, wenn Sie sie normalerweise nur als Produktivitätsinstrument verwenden.“
- Laut OpenAI kann ChatGPT jetzt im Internet surfen
- Die CIA entwickelt ein eigenes Tool für künstliche Intelligenz
Diese Woche kündigte OpenAI ein großes Update für ChatGPT an, das es dem Benutzer zusätzlich zur Interaktion über Bilder ermöglicht, eine Sprachkonversation mit einem Chatbot zu führen. Ziel des Startups ist es, den Bot durch neue Funktionen weiter bekannt zu machen.
Es dauerte nicht lange, bis andere Social-Media-Nutzer Weng darauf aufmerksam machten, wie problematisch es sei, ChatGPT als Therapeuten vorzuschlagen. In einer Antwort auf den Beitrag hieß es: „Das ist keine Therapie und es zu sagen ist gefährlich.“ In einem anderen Beitrag hieß es: „Ihre persönliche Meinung ist für niemanden in Ihrer Position die richtige.“
Wie Futurism hervorhebt, ist Weng bei weitem nicht der Erste, der ChatGPT als Therapeut nutzt – und er wird nicht der Letzte sein. Angesichts seiner Haltung zur KI-Sicherheit und seiner Unerfahrenheit mit der tatsächlichen Therapie werden seine Kommentare jedoch komplizierter.