Technologie23. September 23, 17:11 UhrAutor: Thijs Baas

Gegnerische Angriffe können den gesamten Sicherheitsfilter von chatgpt und anderen Chatbots deaktivieren, indem sie der normalen Eingabeaufforderung eine scheinbar zufällige Zeichenfolge hinzufügen. Das sagt Tech-Kolumnist Ilyaz Nasrullah in BNR Nexus. „Forscher haben Tausende solcher Sequenzen generiert, die den Filter deaktivieren.“

Für dieses Leck gebe es noch keine Lösung, betont Nasrullah mit Verweis auf ein Artikel auf Wired.nl. „Ein normaler Mensch wird den Sicherheitsfilter nicht plötzlich ausschalten, aber es ist möglich und eigentlich ganz einfach.“ Die Tatsache, dass OpenAI nun ein Red Team aufbaut, um das eigene System belastbar und sicher zu machen, zeigt laut Nasrullah, dass ChatGPT verantwortungslos vermarktet wurde. „Normalerweise sucht man nach Gefahren und Problemen, bevor man es freigibt.“

„Es macht wenig Sinn, noch mehr Rechenleistung einzusetzen, da steckt bereits ein Supercomputer dahinter“

Tech-Kolumnist Ilyaz Nasrullah

Lesen Sie auch | „Zehn goldene Jahre vor uns für Chatbot-Anwälte“

Sam Altman, CEO von OpenAI, hat angekündigt, dass sein Unternehmen ein Red Team engagieren will, um zu testen, ob das eigene System widerstandsfähig und sicher gegen Angriffe von außen ist. Doch die Anfälligkeit gegenüber gegnerischen Angriffen zeigt, dass noch viel Arbeit vor uns liegt. „Das kann man nicht dadurch kompensieren, dass man jetzt ein Rettungsteam zusammenstellt und das Problem an alle weltweit verfügbaren externen Experten auslagert.“ „Das hättest du einfach selbst machen sollen.“

Cybersicherheit als eines der Fachgebiete

Einer der vielen Fachbereiche, die für die Aufnahme in das Red Team erforderlich sind, ist Cybersicherheit. Grund für die Registrierung der ethischen Hackerin Sanne Maasakkers. „Ich habe einige sehr konkrete Punkte dargelegt, warum ich denke, dass ich der Plattform etwas hinzufügen kann, zum Beispiel Sicherheit für Systementwickler.“

Siehe auch  Untersuchungen zeigen, dass der Krebsbehandlungsplan von ChatGPT, der sich auf künstliche Intelligenz verlässt, um jederzeit zu töten, voller Fehler und Auslassungen ist – ePrice.HK

Lesen Sie auch | Autoren verklagen Unternehmen hinter ChatGPT wegen Verwendung von Texten

Maasakkers möchte außerdem auf die neuen Tricks aufmerksam machen, die große Angreifergruppen von OpenAI entwickeln. „Angenommen, Sie sind Softwareentwickler und möchten einen Code generieren lassen, dann verwendet OpenAI einen Bibliothek in Ihrem Code. Angreifer erstellen diese Bibliotheken selbst, sodass Personen, die den Code generieren lassen, automatisch Schadcode herunterladen. „Ich denke, es wäre sehr interessant zu sehen, wie Angreifer OpenAI nutzen können, um ihre Angriffe zu verbreiten.“

„ChatGPT wird nicht besser werden“

Nasrullah warnt davor, dass ChatGPT nicht besser wird. Eigentlich ist die Grenze der Technologie bereits erreicht, einfach weil alle Daten fast aufgebraucht sind. „Es macht wenig Sinn, ihm noch mehr Rechenleistung zu geben, da steckt bereits ein Supercomputer dahinter.“ Es muss eine grundlegende Verbesserung in der Funktionsweise der Technologie geben, aber niemand weiß, was diese Verbesserung ist.“

Gegnerische Angriffe Können Den Gesamten Sicherheitsfilter Von Chatgpt Deaktivieren, Indem Sie Der Normalen Eingabeaufforderung Eine Scheinbar Zufällige Zeichenfolge Hinzufügen.  Das Sagt Tech-Kolumnist Ilyaz Nasrullah In Bnr Nexus.  „Forscher Haben Tausende Solcher Sequenzen Generiert, Die Den Filter Deaktivieren.“
Gegnerische Angriffe können den gesamten Sicherheitsfilter von ChatGPT deaktivieren, indem sie der normalen Eingabeaufforderung eine scheinbar zufällige Zeichenfolge hinzufügen. Das sagt Tech-Kolumnist Ilyaz Nasrullah in BNR Nexus. „Forscher haben Tausende solcher Sequenzen generiert, die den Filter deaktivieren.“ ( (Graeme Sloan/Sipa USA))
5/5 - (251 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein