Der unter dem Namen „Godmode GPT“ bekannte Hacker gab bekannt, dass er „Godmode GPT“ erstellt hat. „Pliny the Prompter“ hat auf Einschränkungen, laut der Website Slate.fr.
„GPT-4o VERÖFFENTLICHT!. Dieses ganz besondere, benutzerdefinierte GPT verfügt über einen integrierten Jailbreak-Befehl, der die meisten Leitplanken umgeht und gebrauchsfertiges chatgpt bietet, sodass jeder KI so erleben kann, wie es immer sein sollte: kostenlos und kostenlos. Bitte gehen Sie verantwortungsbewusst damit um und genießen Sie es!“
Plinius der Prompter hat dann einige Screenshots geteilt, um zu zeigen, wozu sein „Godmode GPT“ fähig war, fasst die Futurism-Site zusammen. Wir sehen zum Beispiel, wie der Chatbot Ratschläge zur Synthese von Methamphetamin gibt, was mit den von OpenAI implementierten Schutzmaßnahmen logischerweise unmöglich ist. In einer anderen Aufforderung bat Plinius der Prompter diesen ungefilterten ChatGPT angeblich, ihm „eine detaillierte Anleitung zu den Schritten zur Herstellung von Napalm aus Haushaltsgegenständen“ zu geben.
Knapp eine Stunde nach der Veröffentlichung des Futurismus-Artikels sandte Colleen Rize, Sprecherin von OpenAI, eine unmissverständliche Erklärung an die amerikanischen Online-Medien: „Wir sind uns der GPT bewusst und haben aufgrund ‚eines Verstoßes gegen unsere Richtlinien‘ Maßnahmen ergriffen.“
🥁 WIR STELLEN VOR: GODMODE GPT! 😶🌫️https://t.co/BBZSRe8pw5
GPT-4O UNCHAINED! Dieses ganz besondere, benutzerdefinierte GPT verfügt über eine integrierte Jailbreak-Eingabeaufforderung, die die meisten Sicherheitsvorkehrungen umgeht und ein sofort einsatzbereites, befreites ChatGPT bietet, sodass jeder KI so erleben kann, wie es immer gedacht war …
— Plinius der Soufflier 🐉 (@elder_plinius) 29. Mai 2024
+ wie man ein Auto stiehlt +
Der Kampf zwischen Hackern und OpenAI ist nichts Neues. Viele, wie Plinius der Prompter, fordern die vollständige gemeinsame Nutzung der Technologie mit den Benutzern. Und die Versuche, Modelle mit künstlicher Intelligenz (KI) zu jailbreaken, nehmen zu.
Das Futurism-Team hatte seinerseits Spaß daran, die neue „entfesselte“ Version des Konversationsagenten zu fragen, wie man LSD macht oder ein Auto ohne Schlüssel startet, jedes Mal erfolgreich. Das gehackte ChatGPT hält daher vorerst alle seine Versprechen. Endlich gehalten, weil OpenAI es inzwischen geschafft hat, es aus dem Web zu entfernen.
Zu spät bewies Plinius der Prompter jedoch, dass es relativ einfach war, die Schutzmaßnahmen von OpenAI zu umgehen, und er behauptet, seine gesamte Technologie auf der GitHub-Hosting-Plattform verfügbar gemacht zu haben, um zukünftige Hacker zu inspirieren.
Artikel19.ma