Das Unternehmen, das chatgpt mit generativer künstlicher Intelligenz (KI) auf den Markt gebracht hat, befürchtete, dass eine realistische Stimme in seiner Software Benutzer dazu bringen könnte, Verbindungen mit ihr herzustellen, und zwar auf Kosten menschlicher Interaktionen.

Würden sich OpenAI-Ingenieure von ihrer Schöpfung überfordert fühlen? In einem Dokument äußerte das Unternehmen, das die generative künstliche Intelligenz (KI) ChatGPT auf den Markt gebracht hat, seine Besorgnis darüber, dass eine realistische Stimme in seiner Software Benutzer dazu veranlassen könnte, auf Kosten menschlicher Interaktionen Verbindungen herzustellen. L'„Anthropomorphismus bedeutet, menschliche Einstellungen oder Eigenschaften etwas zuzuschreiben, das nicht menschlich ist, beispielsweise einem KI-Modell.“unterstrich das Unternehmen in einem am Donnerstag veröffentlichten Bericht. „Das Risiko kann durch die Audiofunktionen von GPT-4à erhöht werden, die menschenähnliche Interaktionen ermöglichen.“weist auf den Bericht hin.

Das Dokument wurde am Tag vor der Veröffentlichung der neuen Version von ChatGPT, GPT-4o, veröffentlicht, die die Möglichkeit der Software bietet, stimmlich zu reagieren und das Äquivalent einer Konversation zu ermöglichen. Aber die gleiche Art von Konversation mit einer KI wie mit einem Menschen könnte zu einem Problem führen „fehlgeleitetes Vertrauen“ in der Software, was die zu letzterer hinzugefügte Stimme verstärken könnte. OpenAI betont insbesondere, dass es bei den Testern der neuen Version einen Austausch mit der KI beobachten konnte, der offenbar die Entstehung einer emotionalen Bindung zu zeigen schien, etwa den Ausdruck des Bedauerns darüber, dass dies ihr letzter gemeinsamer Tag war.

„Sicherlich scheinen diese Fälle belanglos zu sein, aber sie verdeutlichen die Notwendigkeit weiterer Forschung darüber, wie sich diese Auswirkungen längerfristig manifestieren könnten.“schließt den Bericht. Das Eingehen einer Form der Sozialisierungsbeziehung mit KI könnte Benutzer auch dazu ermutigen, ihren Wunsch nach Beziehungen mit Menschen zu reduzieren, geht OpenAI davon aus. „Längere Interaktionen mit dem Modell könnten Auswirkungen auf soziale Normen haben. Beispielsweise sind unsere Modelle immer respektvoll und können von Benutzern jederzeit unterbrochen werden, ein Verhalten, das zwar für eine KI normal ist, aber möglicherweise außerhalb der Normen sozialer Interaktionen liegt.Einzelheiten des Berichts.

Siehe auch  Todd Bowley wird mit dieser Aufstellung die Premier League gewinnen, sagt ChatGPT

Risiken, wenn man sich auf Technologie verlässt

Die Fähigkeit der KI, sich Details von Gesprächen zu merken und die ihr übertragenen Aufgaben auszuführen, könnte auch dazu führen, dass Benutzer sich zu sehr auf die Technologie verlassen. „Diese neuen Bedenken, die OpenAI hinsichtlich des Risikos einer möglichen Abhängigkeit von der Stimme von ChatGPT äußert, verdeutlichen, inwieweit die Frage aufkommt: Sollten wir uns die Zeit nehmen und versuchen zu verstehen, wie sich Technologie auf menschliche Interaktionen und Beziehungen auswirkt?“sagte Alon Yamin, Mitbegründer und CEO von Copyleaks, einer Plattform zur Erkennung von KI-Plagiaten.

„KI ist eine ergänzende Technologie, die uns dabei helfen soll, unsere Arbeit und unser tägliches Leben zu optimieren. Sie darf kein Ersatz für echte menschliche Beziehungen werden.“fügte er hinzu. OpenAI hat zugesichert, die Studie darüber fortzusetzen, wie die Sprachfunktion seiner KI dazu führen könnte, dass Benutzer emotional an sie gebunden werden. Den Testern gelang es auch, sie dazu zu bringen, falsche Informationen zu wiederholen oder Verschwörungstheorien aufzustellen, was die Bedenken hinsichtlich der potenziellen Risiken des KI-Modells noch verstärkte.

Die Sprachfunktion von Chat-GPT hat bereits zahlreiche Reaktionen hervorgerufen und OpenAI letzten Juni dazu gezwungen, sich bei der Schauspielerin Scarlett Johansson für die Verwendung einer ihr sehr nahestehenden Stimme zu entschuldigen, was zu Kontroversen über das Risiko führte, das mit dem Kopieren von Stimmen mithilfe von Technologie verbunden ist. Während das Unternehmen die Nutzung der Stimme von Frau Johansson bestritten hat, ist die Tatsache, dass ihr Chef, Sam Altman, die Sprachfunktion in den sozialen Medien mit einem einzigen Wort hervorgehoben hat: „Ihr“in Bezug auf den Film, in dem die Schauspielerin eine KI spielt, half ihr nicht, die Überzeugung der Beobachter zu gewinnen.

Siehe auch  Skoda steigt in den ChatGPT-Zug mit KI-gestütztem Infotainment ein, das diesen Sommer erscheinen soll

Der 2013 erschienene Film erzählt genau die Geschichte eines Mannes, gespielt von Schauspieler Joaquin Phoenix, der sich in seine persönliche KI verliebt. «Samantha»für den Scarlett Johansson ihre Stimme lieh.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein