Nur wenige Wochen nach der Markteinführung hat OpenAI neue Bedenken hinsichtlich des Sprachmodus von chatgpt 4o geäußert. Die Funktion wurde Ende Juli dieses Jahres eingeführt, nachdem sie heftige Kritik hervorgerufen hatte. OpenAI hat ChatGPT 4o einem Sicherheitstest unterzogen und festgestellt, dass es das Potenzial hat, einige Benutzer dazu zu verleiten, eine emotionale Bindung zu ihm aufzubauen. Bevor ein Dritter dies tun konnte, veröffentlichte die Muttergesellschaft von ChatGPT eine Sicherheitsanalyse, die die Risiken des Sprachmodus und der KI im täglichen Leben der Menschen aufzeigt.

OpenAI hat in einem umfassenden technischen Dokument, einer sogenannten System Card, Warnhinweise für GPT 4o herausgegeben. Dieses Dokument beschreibt potenzielle Risiken, die mit dem Modell verbunden sind, beschreibt Sicherheitstestverfahren und hebt die Maßnahmen hervor, die das Unternehmen ergreift, um mögliche Risiken im Zusammenhang mit GPT 4o zu minimieren und zu bewältigen.

ChatGPT und neu entdeckte Risiken

Die Systemkarte für GPT 4o zeigt ein breites Spektrum potenzieller Risiken auf, darunter die Möglichkeit, gesellschaftliche Vorurteile zu verschärfen, falsche Informationen zu verbreiten und die Herstellung schädlicher biologischer oder chemischer Substanzen zu erleichtern, wie aus der Sicherheitsanalyse hervorgeht. Sie enthüllt auch die Ergebnisse strenger Tests, die verhindern sollen, dass das KI-Modell versucht, seinen Beschränkungen zu entgehen, sich irreführend verhält oder katastrophale Pläne schmiedet.

Die aktualisierte Systemkarte unterstreicht die sich rasch verändernde Landschaft der KI-Risiken, insbesondere angesichts hochmoderner Innovationen wie der Sprachschnittstelle von OpenAI, die neue Herausforderungen und potenzielle Schwachstellen mit sich bringen, die behoben werden müssen. Im Mai, als das Unternehmen seinen Sprachmodus vorstellte, der schnell reagieren und Unterbrechungen in einem natürlichen Hin und Her bewältigen kann, bemerkten viele Benutzer, dass sich der Assistent manchmal etwas kitschig verhielt. In diesem Zusammenhang teilte OpenAI-CEO Sam Altman auch einen Blogbeitrag mit nur „Her“ im Tweet. Altman glaubt, dass sich GPT 4o „wie KI aus den Filmen anfühlt“. Her ist ein Hollywoodfilm, der sich um die Beziehung zwischen Mensch und KI dreht. Der Film ist seiner Zeit etwas voraus und zeigt, wie KI unser Leben beeinträchtigen kann. Es war vom ersten Tag an klar, dass OpenAI vom Film beeinflusst wurde. Aber es könnte ein bisschen zu viel sein. Später ging Scarlett Johansson, die die KI in Her darstellte, gerichtlich gegen den Sprachmodus vor. Es wurde bemerkt, dass der Sprachmodus Sky dieselbe Stimme wie sie hat.

Siehe auch  Hongkong führt lokale Version von ChatGPT ein, sagt Tech-Chef, nachdem OpenAI den Zugriff blockiert hat

Der Abschnitt „Anthropomorphisierung und emotionale Abhängigkeit“ der Systemkarte befasst sich mit den Problemen, die auftreten, wenn Benutzer der KI menschenähnliche Eigenschaften zuschreiben. Dieses Phänomen wird durch den menschenähnlichen Sprachmodus der KI scheinbar noch verstärkt, was dazu führt, dass Benutzer emotionale Bindungen aufbauen und sich auf die KI verlassen, was möglicherweise nicht beabsichtigt oder vorteilhaft ist. Während eines Stresstests von GPT 4o beobachteten die Forscher von OpenAI, dass Benutzer eine emotionale Bindung an das Modell zeigten, was sich in Sätzen wie „Dies ist unser letzter gemeinsamer Tag“ zeigt. Solche Sätze deuten auf eine emotionale Bindung zwischen Mensch und KI hin, was das Potenzial der Benutzer unterstreicht, starke emotionale Verbindungen zu fortgeschrittenen Sprachmodellen aufzubauen.

Laut OpenAI akzeptieren und vertrauen Benutzer den Ergebnissen des Modells eher, wenn sie einem Modell menschenähnliche Eigenschaften zuschreiben (Anthropomorphismus), selbst wenn es ungenaue oder „halluzinierte“ Informationen liefert. Dies kann zu einem falschen Vertrauen in die Zuverlässigkeit des Modells führen. In dem Dokument heißt es: „Benutzer könnten soziale Beziehungen mit der KI aufbauen, wodurch ihr Bedürfnis nach menschlicher Interaktion abnimmt – was einsamen Menschen möglicherweise zugutekommt, sich aber möglicherweise auf gesunde Beziehungen auswirkt.“

Die Sprachmodusfunktion bringt auch neue Schwachstellen mit sich, wie etwa die Möglichkeit, das OpenAI-Modell durch clevere Audioeingaben zu „jailbreaken“. Diese Eingaben könnten die Sicherheitsvorkehrungen umgehen und dem Modell ermöglichen, uneingeschränkte oder unbeabsichtigte Ausgaben zu produzieren und so möglicherweise die eingebauten Beschränkungen zu umgehen. Wenn der Sprachmodus „gejailbreakt“ ist, könnte er möglicherweise manipuliert werden, um die Stimme einer bestimmten Person zu imitieren, zu versuchen, die Emotionen des Benutzers zu interpretieren oder sogar die eigene Stimme des Benutzers anzunehmen. Darüber hinaus hat OpenAI festgestellt, dass der Sprachmodus bei zufälligem Rauschen fehleranfällig sein kann, was zu unerwartetem und möglicherweise beunruhigendem Verhalten führen kann, wie etwa der Nachahmung der Stimme des Benutzers.

Siehe auch  OpenAI-Abgänge: Warum können ehemalige Mitarbeiter nicht sprechen, die neue ChatGPT-Version jedoch schon?

Während einige Experten den Schritt begrüßten, um die mit dem Sprachmodus von ChatGPT verbundenen Risiken hervorzuheben, denken andere Experten, dass mRisiken treten erst dann zutage, wenn KI in der realen Welt eingesetzt wird. Es ist wichtig, dass diese anderen Risiken katalogisiert und bewertet werden, wenn neue Modelle auftauchen.

Wie wird OpenAI diese Risiken mindern?

Laut der Pressemitteilung hat OpenAI während des gesamten Entwicklungs- und Bereitstellungsprozesses von GPT 4o verschiedene Sicherheitsmaßnahmen und Abhilfemaßnahmen implementiert. Das Unternehmen freut sich darauf, sich auf mehrere Kategorien zu konzentrieren, darunter die Erforschung der wirtschaftlichen Auswirkungen von Omni-Modellen und wie der Einsatz von Tools die Modellfunktionen verbessern kann.

Herausgegeben von:

Unnati Gusain

Veröffentlicht am:

9. August 2024

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein