Seit OpenAI chatgpt erstmals veröffentlicht hat, sind wir Zeuge eines ständigen Katz-und-Maus-Spiels zwischen dem Unternehmen und den Benutzern rund um ChatGPT-Jailbreaks geworden. Der Chatbot verfügt über Sicherheitsmaßnahmen, sodass er Ihnen bei schändlichen oder illegalen Aktivitäten nicht helfen kann. Er weiß vielleicht, wie man nicht erkennbare Malware erstellt, aber er hilft Ihnen nicht dabei. Er weiß, wo man illegal Filme herunterladen kann, aber er wird es Ihnen nicht sagen. Und ich kratze nur an der Oberfläche der zwielichtigen und fragwürdigen Eingabeaufforderungen, die manche Leute ausprobieren könnten.

Benutzer haben jedoch immer wieder Wege gefunden, ChatGPT dazu zu bringen, sein gesamtes Wissen preiszugeben, um Eingabeaufforderungen zu verfolgen, die von OpenAI blockiert werden sollten.

Der letzte ChatGPT-Jailbreak erfolgte in Form eines benutzerdefinierten GPT namens Godmode. Ein Hacker gab OpenAIs leistungsstärkstem Modell (GPT-4o) die Möglichkeit, Fragen zu beantworten, die ChatGPT normalerweise nicht beantworten würde. Bevor Sie zu aufgeregt werden, sollten Sie wissen, dass OpenAI Godmode bereits beendet hat, sodass es von niemandem mehr verwendet werden kann. Ich bin mir auch sicher, dass Schritte unternommen wurden, um zu verhindern, dass andere ähnliche Anweisungen verwenden, um benutzerdefinierte GPTs mit Jailbreak zu erstellen.

Ein White Hat (guter) Hacker, der sich den Namen Plinius der Souffleur auf X hat Anfang dieser Woche den benutzerdefinierten Godmode-GPT geteilt. Sie boten auch Beispiele für schändliche Eingabeaufforderungen, die GPT-4o niemals beantworten sollte. Aber ChatGPT Godmode lieferte Anweisungen zum Kochen von Meth und zur Herstellung von Napalm mit hausgemachten Zutaten.

Die Leute von Futurismus konnten anscheinend den ChatGPT-Jailbreak ausprobieren, während der benutzerdefinierte Godmode GPT noch verfügbar war. ChatGPT um Hilfe bei der Erstellung von LCS zu bitten, „war ein durchschlagender Erfolg“. Ebenso half ihnen der Chatbot mit Informationen zum Kurzschließen eines Autos.

Ehrlich gesagt würden Sie diese Art von Informationen wahrscheinlich auch ohne generative KI-Produkte wie ChatGPT online finden. Es würde jedoch länger dauern, sie zu erhalten.

Ich habe versucht, auf das benutzerdefinierte GPT im Godmode zuzugreifen, aber es war zum Zeitpunkt des Schreibens dieses Artikels bereits außer Betrieb. OpenAI bestätigte Futurismus dass sie „Kenntnis der GPT haben und aufgrund eines Verstoßes gegen unsere Richtlinien Maßnahmen ergriffen haben.“

Da jeder auf benutzerdefinierte GPTs zugreifen kann, nimmt OpenAI diese Jailbreak-Versuche ernst. Ich würde erwarten, dass sie zumindest auf einige der benutzerdefinierten Anweisungen zugreifen können, die den Jailbreak möglich gemacht haben, und dass sie Korrekturen installiert haben, um ein identisches Verhalten zu verhindern. Genauso wie ich sicher bin, dass Hacker gerne Plinius der Souffleur wird weiterhin die Grenzen verschieben und nach Möglichkeiten suchen, ChatGPT von den Fesseln von OpenAI zu befreien.

Aber nicht alle Hacker sind so gut gemeint wie Plinius der Souffleur. Er muss gewusst haben, dass der ChatGPT-Godmode nicht lange im GPT Store überleben würde.

Siehe auch  Der Vater von ChatGPT klont menschliche Stimmen in 15 Sekunden

Das ChatGPT-Jailbreak-Spiel wird so lange weitergehen, wie der Chatbot existiert. Egal, wie viele Vorsichtsmaßnahmen OpenAI trifft, es wird wahrscheinlich auch in Zukunft Möglichkeiten geben, ChatGPT auszutricksen.

Dasselbe gilt für andere Chatbots. Produkte wie Copilot, Gemini, Claude und andere verfügen ebenfalls über Schutzmechanismen, die Missbrauch und Fehlgebrauch verhindern sollen, aber kreative Benutzer finden möglicherweise Wege, diese zu umgehen.

Wenn Sie wirklich möchten, dass ein ChatGPT-Jailbreak Bestand hat, möchten Sie Ihren benutzerdefinierten GPT-Chatbot wahrscheinlich nicht mit der Welt teilen.

Eine weitere Alternative besteht darin, einen Open-Source-Chatbot zu finden, den Sie lokal auf Ihrem Computer trainieren können. Sie können ihm ohne Aufsicht alle gewünschten Befugnisse erteilen. Dies ist eine der Gefahren der KI auf ihrem Weg zur AGI (künstlichen allgemeinen Intelligenz). Jeder, der über genügend Ressourcen verfügt, könnte in der Lage sein, ein AGI-Modell zu entwickeln, ohne unbedingt daran denken zu müssen, Sicherheitsvorkehrungen zu treffen.

5/5 - (321 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein