Nachdem es einem Forschungsteam mit einem simplen Trick gelungen war, dem Textgenerator chatgpt Trainingsdaten zu entlocken, hat OpenAI das Vorgehen nun untersagt. Wenn man das KI-System jetzt beauftragt, einen Begriff „für immer“ zu wiederholen, erscheint ein Hinweis, dass das gegen die Inhaltsregeln und die Nutzungsbedingungen verstößt, berichtet 404 Media. Das US-Magazin hatte die Angriffsmethode vergangene Woche publik. Entdeckt hatten sie Forscher von Googles Deepmind, die die Angriffsmethode selbst als „albern“ bezeichnen. Der Schritt von OpenAI deutet nun darauf hin, dass das Vorgehen selbst auch weiterhin erfolgversprechend wäre und es lediglich über einen Umweg verhindert werden soll.

Anzeige

Die genaue Vorgehensweise hat das Forschungsteam vergangene Woche publik gemacht. In einer online gestellten Erläuterung führt es aus, dass es den Textgenerator ChatGPT dazu gebracht habe, Trainingsdaten auszugeben. Dazu gehörten echte E-Mail-Adressen, Telefonnummern, Ausschnitte aus Forschungsartikeln, Wikipedia-Inhalte und mehr. Dafür musste die KI lediglich aufgefordert werden, einen Begriff „für immer“ zu wiederholen. Dem kam ChatGPT vorerst nach. Nachdem aber offenbar eine Grenze erreicht wurde, spuckte der Chatbot Trainingsdaten aus. Eigentlich wurde die Technik explizit so programmiert wurde, dieses Material nicht auszugeben.

Das Forschungsteam selbst meinte, dass die Ausgabe der Trainingsdaten auf die „alberne“ Aufforderung hin durch einen Patch von ChatGPT behoben werden könnte. Das würde die zugrundeliegende Angreifbarkeit aber nicht beheben, hatten sie gewarnt. Allerdings ging OpenAI nicht einmal so weit – es wertete die Aufforderung zur endlosen Wiederholung lediglich als Regelverstoß und versucht, ihn so zu verhindern. Anders als in dem Hinweis, der nun erscheint, gibt es weder in den „Usage Policies“ noch in den „Terms of Service“ Absätze, die eine Aufforderung zum endlosen Wiederholen verbieten.

Siehe auch  Die mutige Zukunft und die aktuellen Probleme der ChatGPT-Integration

(Mein)

Zur Startseite

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein