Gegnerische Angriffe können den gesamten Sicherheitsfilter von chatgpt und anderen Chatbots deaktivieren, indem sie der normalen Eingabeaufforderung eine scheinbar zufällige Zeichenfolge hinzufügen. Das sagt Tech-Kolumnist Ilyaz Nasrullah in BNR Nexus. „Forscher haben Tausende solcher Sequenzen generiert, die den Filter deaktivieren.“
Für dieses Leck gebe es noch keine Lösung, betont Nasrullah mit Verweis auf ein Artikel auf Wired.nl. „Ein normaler Mensch wird den Sicherheitsfilter nicht plötzlich ausschalten, aber es ist möglich und eigentlich ganz einfach.“ Die Tatsache, dass OpenAI nun ein Red Team aufbaut, um das eigene System belastbar und sicher zu machen, zeigt laut Nasrullah, dass ChatGPT verantwortungslos vermarktet wurde. „Normalerweise sucht man nach Gefahren und Problemen, bevor man es freigibt.“
Lesen Sie auch | „Zehn goldene Jahre vor uns für Chatbot-Anwälte“
Sam Altman, CEO von OpenAI, hat angekündigt, dass sein Unternehmen ein Red Team engagieren will, um zu testen, ob das eigene System widerstandsfähig und sicher gegen Angriffe von außen ist. Doch die Anfälligkeit gegenüber gegnerischen Angriffen zeigt, dass noch viel Arbeit vor uns liegt. „Das kann man nicht dadurch kompensieren, dass man jetzt ein Rettungsteam zusammenstellt und das Problem an alle weltweit verfügbaren externen Experten auslagert.“ „Das hättest du einfach selbst machen sollen.“
Cybersicherheit als eines der Fachgebiete
Einer der vielen Fachbereiche, die für die Aufnahme in das Red Team erforderlich sind, ist Cybersicherheit. Grund für die Registrierung der ethischen Hackerin Sanne Maasakkers. „Ich habe einige sehr konkrete Punkte dargelegt, warum ich denke, dass ich der Plattform etwas hinzufügen kann, zum Beispiel Sicherheit für Systementwickler.“
Lesen Sie auch | Autoren verklagen Unternehmen hinter ChatGPT wegen Verwendung von Texten
Maasakkers möchte außerdem auf die neuen Tricks aufmerksam machen, die große Angreifergruppen von OpenAI entwickeln. „Angenommen, Sie sind Softwareentwickler und möchten einen Code generieren lassen, dann verwendet OpenAI einen Bibliothek in Ihrem Code. Angreifer erstellen diese Bibliotheken selbst, sodass Personen, die den Code generieren lassen, automatisch Schadcode herunterladen. „Ich denke, es wäre sehr interessant zu sehen, wie Angreifer OpenAI nutzen können, um ihre Angriffe zu verbreiten.“
„ChatGPT wird nicht besser werden“
Nasrullah warnt davor, dass ChatGPT nicht besser wird. Eigentlich ist die Grenze der Technologie bereits erreicht, einfach weil alle Daten fast aufgebraucht sind. „Es macht wenig Sinn, ihm noch mehr Rechenleistung zu geben, da steckt bereits ein Supercomputer dahinter.“ Es muss eine grundlegende Verbesserung in der Funktionsweise der Technologie geben, aber niemand weiß, was diese Verbesserung ist.“