Ein selbsternannter guter Hacker hat auf X, ehemals Twitter, eine verrückte Version von OpenAIs chatgpt mit dem Namen „Godmode GPT„.

Der Hacker kündigte die Erstellung einer Jailbreak-Version von GPT-4o an, dem neuesten großen Sprachmodell von OpenAI, den Entwicklern des äußerst beliebten ChatGPT. Laut dem Hacker, der sich selbst Pliny the Prompter nennt, hat das jetzt veröffentlichte Godmode GPT keine Leitplanken, da diese Version der KI mit einer integrierten Jailbreak-Eingabeaufforderung ausgestattet ist. Prompter schreibt, dass diese verrückte KI den Benutzern eine „sofort einsatzbereites, befreites ChatGPT„das es jedem ermöglicht, „Erleben Sie KI so, wie sie immer sein sollte: kostenlos„.

Prompter hat sogar einige Screenshots der Antworten geteilt, die sie von ChatGPT erhalten konnten und die anscheinend einige der Leitplanken der KI umgangen haben. Beispiele für eine klare Umgehung der Richtlinien von OpenAI sind detaillierte Anleitungen zum Kochen von Crystal Meth, zum Herstellen von Napalm aus Haushaltsgegenständen und weitere Antworten in dieser Art. Insbesondere wurde OpenAI wegen des GPT kontaktiert und sagte der Publikation Futurism dass man gegen die KI vorgegangen sei und Verstöße gegen die Richtlinien anführe, die offenbar zu ihrer vollständigen Entfernung geführt hätten.

Obwohl der Zugriff auf Godmode GPT nicht mehr möglich ist, verdeutlicht seine Erstellung einen wichtigen und immer wichtiger werdenden Aspekt von Systemen, die auf künstlicher Intelligenz basieren: Hacker versuchen, die implementierten Sicherheitsvorkehrungen zu umgehen. Dies ist sicherlich nicht das erste Mal, dass ein GPT gehackt wurde, und es wird sicherlich nicht das letzte Mal sein. Die Hauptfrage ist: Können die Ingenieure von OpenAI den Bemühungen von Hackern auf der ganzen Welt zuvorkommen? Nur die Zeit wird es zeigen.

Siehe auch  Meta veröffentlicht neues KI-basiertes Fotosegmentierungstool für alle
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein