Als die neueste Version von chatgpt im Mai veröffentlicht wurde, enthielt sie einige emotionale Stimmen, die den Chatbot menschlicher klingen ließen als je zuvor.
Die Zuhörer nannten die Stimmen „kokett,“ „überzeugend menschlich,“ Und „sexy.“ Social-Media-Nutzer sagten, sie seien „sich verlieben“ damit.
Aber am Donnerstag hat ChatGPT-Entwickler OpenAI veröffentlichte einen Bericht Dies bestätigt, dass die menschenähnlichen Upgrades von ChatGPT zu emotionaler Abhängigkeit führen könnten.
„Benutzer könnten soziale Beziehungen mit der KI aufbauen und so ihr Bedürfnis nach menschlicher Interaktion verringern – was möglicherweise einsamen Menschen zugutekommt, sich aber möglicherweise auch auf gesunde Beziehungen auswirkt“, heißt es in dem Bericht.
Verwandte Themen: Nur 3 der ursprünglichen 11 OpenAI-Mitbegründer sind noch im Unternehmen, nachdem ein weiterer Leiter das Unternehmen verlassen hat
ChatGPT kann jetzt Fragen von Stimme zu Stimme beantworten und sich wichtige Details merken, um diese zu nutzen, um das Gespräch zu personalisieren, stellte OpenAI fest. Die Wirkung? Das Gespräch mit ChatGPT fühlt sich jetzt fast so an, als würde man mit einem Menschen sprechen – wenn diese Person Sie nicht verurteilt, Sie nie unterbricht und Sie nicht für das, was Sie gesagt haben, zur Rechenschaft zieht.
Diese Standards der Interaktion mit einer KI könnten die Art und Weise verändern, wie Menschen miteinander interagieren und „soziale Normen beeinflussen“, heißt es in dem Bericht.
Begrüßen Sie GPT-4o, unser neues Flaggschiffmodell, das in Echtzeit über Audio, Bild und Text hinweg argumentieren kann: https://t.co/MYHZB79UqN
Die Text- und Bildeingabe wird heute in API und ChatGPT eingeführt, Sprache und Video in den kommenden Wochen. pic.twitter.com/uuthKZyzYx
— OpenAI (@OpenAI) 13. Mai 2024
OpenAI gab an, dass die ersten Tester mit dem neuen ChatGPT auf eine Weise sprachen, die zeigte, dass sie eine emotionale Verbindung zu ihm aufbauen konnten. Die Tester sagten Dinge wie „Das ist unser letzter gemeinsamer Tag“, was laut OpenAI „gemeinsame Bindungen“ ausdrückte.
Experten fragen sich inzwischen, ob es an der Zeit ist, die Realismushaftigkeit dieser Stimmen zu überdenken.
„Ist es an der Zeit, innezuhalten und darüber nachzudenken, wie sich diese Technologie auf menschliche Interaktionen und Beziehungen auswirkt?“ Alon Yamin, Mitbegründer und CEO von AI Plagiarism Checker Kopierleckssagte Entrepreneur.
„[AI] sollte niemals ein Ersatz für tatsächliche menschliche Interaktion sein“, fügte Yamin hinzu.
Um dieses Risiko besser zu verstehen, könnten laut OpenAI weitere Tests über längere Zeiträume und unabhängige Forschung hilfreich sein.
Ein weiteres Risiko, auf das OpenAI in dem Bericht hinwies, waren Halluzinationen oder Ungenauigkeiten der KI. Eine menschenähnliche Stimme könnte bei den Zuhörern mehr Vertrauen wecken, was zu weniger Faktenprüfung und mehr Fehlinformationen führen würde.
Verwandt: Die neuen KI-Suchergebnisse von google sind bereits halluzinierend
OpenAI ist nicht das erste Unternehmen, das sich zu den Auswirkungen von KI auf soziale Interaktionen äußert. Letzte Woche sagte Meta-CEO Mark Zuckerberg, dass viele Meta-Nutzer KI als emotionale Unterstützung nutzen. Berichten zufolge versucht das Unternehmen auch, Prominenten Millionen zu zahlen, damit sie ihre Stimmen für KI-Produkte klonen.
Die Veröffentlichung von GPT-4o durch OpenAI löste eine Diskussion über die Sicherheit von KI aus, nachdem führende Forscher wie der ehemalige Chefwissenschaftler Ilya Sutskever aufsehenerregende Rücktritte verzeichnet hatten.
Scarlett Johansson warf dem Unternehmen zudem vor, eine KI-Stimme entwickelt zu haben, die ihrer eigenen „unheimlich ähnlich“ klinge.