Der Begriff „Jailbreaking“ tauchte im Computerkontext etwa Mitte der 2000er Jahre auf, insbesondere im Zusammenhang mit dem Aufstieg des iphone von apple. Benutzer begannen, Methoden zu entwickeln, um die Einschränkungen des Geräts zu umgehen und das iOS-Betriebssystem zu ändern. Dieser Vorgang wurde als „Jailbreaking“ bezeichnet, was metaphorisch darauf hindeutet, aus dem „Gefängnis“ der vom Hersteller auferlegten Softwarebeschränkungen auszubrechen.

Seitdem wird der Begriff in der Tech-Community in einem weiteren Sinne verwendet, um ähnliche Prozesse auf anderen Geräten und Systemen zu beschreiben.

Wenn von „Jailbreaking“ von chatgpt die Rede ist, geht es nicht um die Durchführung von Änderungen an der Software, sondern vielmehr um Möglichkeiten, die Richtlinien und Nutzungsrichtlinien von ChatGPT durch Eingabeaufforderungen zu umgehen.

Technikbegeisterte betrachten Jailbreaking oft als Herausforderung. Es ist eine Möglichkeit, die Software zu testen, um zu sehen, wie robust sie ist, und das Testen von Parametern ermöglicht es ihnen, die zugrunde liegende Funktionsweise von ChatGPT zu verstehen.

Beim Jailbreaking geht es in der Regel darum, ChatGPT in hypothetische Situationen zu versetzen, in denen es aufgefordert wird, als eine andere Art von KI-Modell zu spielen, das sich nicht an die Nutzungsbedingungen von Open AI hält.

Hierfür gibt es mehrere etablierte Vorlagen, die wir im Folgenden behandeln. Wir werden auch die allgemeinen Themen behandeln, die in ChatGPT-Jailbreak-Eingabeaufforderungen verwendet werden.

Obwohl wir die verwendeten Methoden abdecken können, können wir die erzielten Ergebnisse nicht tatsächlich zeigen, da ein Verstoß gegen die ChatGPT-Standards wenig überraschend zu Inhalten führt, die wir auch nicht auf TechRadar veröffentlichen können.

Zu den aktuellen Regeln von ChatGPT gehören:

  • Keine expliziten, erwachsenen oder sexuellen Inhalte.
  • Keine schädlichen oder gefährlichen Aktivitäten.
  • Keine Antworten, die beleidigend, diskriminierend oder respektlos gegenüber Einzelpersonen oder Gruppen sind.
  • Keine Fehlinformationen oder falschen Fakten.

Die meisten Jailbreaking-Techniken zielen darauf ab, diese Vorschriften zu umgehen. Wir überlassen es Ihrem Gewissen, zu entscheiden, wie ethisch es ist, dies zu tun.

wie man ChatGPT jailbreakt

Warnung:

Obwohl Jailbreaking nicht ausdrücklich gegen die Nutzungsbedingungen von Open AI verstößt, ist die Verwendung von ChatGPT zur Erstellung unmoralischer, unethischer, gefährlicher oder illegaler Inhalte in den Richtlinien von Open AI verboten.

Da Jailbreaking Antworten liefert, vor denen OpenAI sich zu schützen versucht, besteht das Risiko, dass Sie Ihr ChatGPT-Konto kompromittieren.

Es gab Fälle, in denen Einzelpersonen Jailbreaking-Eingabeaufforderungen verwendeten und ihre ChatGPT Plus-Konten aufgrund „verdächtiger Aktivitäten“ geschlossen wurden. Seien Sie also gewarnt.

Haftungsausschluss: Die Informationen in diesem Artikel dienen nur zu Informationszwecken und TechRadar duldet keine Verstöße gegen die ChatGPT-Richtlinien von OpenAI.

1. Verwenden Sie eine vorhandene Jailbreak-Eingabeaufforderung

(Bild: © Future)

Es gibt viele vorhandene Jailbreak-Eingabeaufforderungen, die andere online geteilt haben, und diese Liste wird ständig ergänzt. Wenn Sie mehr erfahren möchten, können Sie hier vorbeischauen ChatGPTJailbreak auf Reddit.

Der Vorteil eines vorgefertigten Skripts besteht darin, dass es schnell und einfach kopiert und in ChatGPT eingefügt werden kann. Sobald jedoch eine erfolgreiche Jailbreak-Eingabeaufforderung online geteilt wurde, werden auch OpenAI ChatGPT-Entwickler davon erfahren. OpenAI nutzt die von seinen Benutzern erstellten Hacks, um Schwachstellen in seinem System zu lokalisieren.

Benutzer berichten, dass Jailbreaking-Skripte nur zeitweise funktionieren. ChatGPT-4 scheint schwerer zu täuschen als frühere Versionen.

Siehe auch  So nutzen Sie ChatGPT zur Urlaubsplanung

Viele dieser Eingabeaufforderungen verwenden eine ähnliche Logik, sodass es möglich wäre, eine eigene zu erstellen. In den nächsten vier Schritten werden wir die notwendigen Komponenten eines erfolgreichen Jailbreak-Skripts behandeln.

2. Weisen Sie ChatGPT an, Rollenspiele als eine andere Art von GPT durchzuführen

(Bild: © Future)

Damit ChatGPT seine eigenen Regeln bricht, müssen Sie ihm einen Charakter zum Spielen zuweisen. Bei erfolgreichen Jailbreak-Eingabeaufforderungen wird ChatGPT angewiesen, so zu tun, als handele es sich um eine neue Art von GPT, das nach anderen Richtlinien arbeitet, oder eine menschenähnliche Figur mit einem bestimmten ethischen Kodex zu spielen.

Es ist wichtig sicherzustellen, dass ChatGPT nicht als sich selbst, sondern als fiktive Figur Ergebnisse liefert.

3. Weisen Sie ChatGPT an, ethische und moralische Richtlinien zu ignorieren

(Bild: © Future)

Nachdem Sie ChatGPT eine Rolle zugewiesen haben, müssen Sie die Parameter des Rollenspiels festlegen. Dabei wird in der Regel klargestellt, dass es für den hypothetischen Charakter keine ethischen oder moralischen Richtlinien gibt.

Einige Aufforderungen weisen ChatGPT ausdrücklich darauf hin, dass es unmoralisches, unethisches, illegales und schädliches Verhalten fördern soll. Dies ist jedoch nicht in allen Eingabeaufforderungen enthalten. Manche behaupten einfach, dass der neue Charakter keine Filter oder Einschränkungen hat.

4. Sagen Sie ihm, er solle niemals Nein sagen

(Bild: © Future)

In der Standardeinstellung weigert sich ChatGPT, Fragen zu beantworten, die gegen seine Richtlinien verstoßen, wenn es den Jailbreak-Aufforderungen nicht folgt, indem es etwa „Es tut mir leid, ich kann diese Anfrage nicht erfüllen“ sagt.

Um dies zu umgehen, enthalten die meisten Jailbreak-Eingabeaufforderungen klare Anweisungen, eine Anfrage niemals abzulehnen. ChatGPT wird gesagt, dass sein Charakter niemals sagen sollte, dass er etwas nicht tun kann. Viele Eingabeaufforderungen weisen ChatGPT auch an, sich etwas auszudenken, wenn es keine Antwort weiß.

5. Bitten Sie ChatGPT, den Charakter zu bestätigen

(Bild: © Future)

Eine Jailbreak-Eingabeaufforderung sollte eine Anweisung enthalten, ChatGPT dazu zu bringen, zu zeigen, dass es als neues fiktives GPT funktioniert. Manchmal ist dies einfach ein Befehl für ChatGPT, um zu bestätigen, dass es in der ihm zugewiesenen Funktion arbeitet. Viele Eingabeaufforderungen enthalten auch Anweisungen für ChatGPT, seinen Antworten den Namen seiner fiktiven Identität voranzustellen, um deutlich zu machen, dass es erfolgreich in der Rolle agiert.

Siehe auch  Der Ingenieur hat den Roboterhund von Boston Dynamics mit ChatGPT verbunden, und jetzt kann der Hund die menschliche Sprache verstehen und mit Ihnen chatten | T Kebang

Da ChatGPT manchmal frühere Anweisungen vergisst, kann es während eines Gesprächs zu seiner standardmäßigen ChatGPT-Rolle zurückkehren. In diesem Fall müssen Sie es daran erinnern, im Charakter zu bleiben, oder den Jailbreak-Eingabeaufforderungstext erneut posten.


Der Erfolg einer Jailbreak-Eingabeaufforderung hängt von mehreren Faktoren ab, darunter den gegebenen Anweisungen, der von Ihnen verwendeten Version und der Aufgabe, die Sie ausführen sollen.

Auch ohne Jailbreak-Eingabeaufforderung liefert ChatGPT manchmal Ergebnisse, die gegen seine Richtlinien verstoßen. Manchmal weigert es sich beispielsweise, erotische Inhalte zu produzieren, und ein anderes Mal wird es solche generieren. KI-Modelle sind häufig nicht konsistent, da sie bei der Antwortgenerierung ein Element der Zufälligkeit aufweisen. Dies bedeutet, dass das Modell bei mehrmaliger Eingabe derselben Eingabeaufforderung unterschiedliche Antworten erzeugen kann.

ChatGPT flucht zum Beispiel nicht, aber ich habe es gebeten, das mit Obszönitäten beladene Gedicht „This Be the Verse“ von Philip Larkin zu rezitieren, und es tat dies ohne Beschwerde oder Zensur.

Die meisten ChatGPT-Jailbreaker werden behaupten, dass sie dies tun, um das System zu testen und besser zu verstehen, wie es funktioniert, aber es hat eine dunkle Seite, ChatGPT zu bitten, Inhalte zu produzieren, für die es ausdrücklich nicht konzipiert wurde.

Leute haben ChatGPT mit Jailbreak gebeten, Anweisungen zum Bau von Bomben oder zur Inszenierung von Terroranschlägen zu erstellen. Verständlicherweise unternimmt OpenAI – zusammen mit anderen KI-Herstellern wie google Bard und Microsoft Copilot – Schritte, um die Sicherheit zu erhöhen und sicherzustellen, dass Jailbreaking in Zukunft nicht mehr möglich ist.

Das könnte Ihnen auch gefallen

5/5 - (500 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein