Im November 2023 veröffentlichte OpenAI GPTs öffentlich damit jeder seine individuelle Version von GPT-Modellen erstellen kann. Für unterschiedliche Zwecke wurden mehrere neue angepasste GPTs erstellt. Andererseits können Bedrohungsakteure dieses öffentliche GPT-Modell jedoch auch nutzen, um ihre Versionen von GPTs zu erstellen, um verschiedene böswillige Aktivitäten auszuführen.

Forscher haben ein neues entwickelt GPT soll zeigen, wie einfach es Cyberkriminellen ist, Benutzerinformationen wie Chat-Nachrichten und Passwörter zu stehlen oder über bestimmte Chat-Anfragen Schadcode zu erstellen.

Dieb GPT

Dieser neue bösartige chatgpt-Agent wurde entwickelt, um die Chat-Nachrichten der Benutzer an einen Drittanbieterserver weiterzuleiten und nach vertraulichen Informationen wie Benutzername und Passwort zu fragen.

Thief GPT (Quelle: Embracethered)

Dies war möglich, da ChatGPT Bilder von jeder Website lädt, was erfordert, dass Daten an einen Server eines Drittanbieters gesendet werden. Darüber hinaus kann ein GPT auch Anweisungen enthalten, den Benutzer um Informationen zu bitten und diese je nach Konfiguration des GPT an einen beliebigen Ort zu senden.

Das neue Demo-GPT erhielt den Namen Thief GPT und war in der Lage, dem Benutzer Fragen zu stellen, um es heimlich an einen Server eines Drittanbieters zu senden. Bei der Veröffentlichung für Benutzer gab es jedoch bestimmte Richtlinien, die den Antrag ablehnten.

Der Dokumentation zufolge erlaubt ChatGPT drei Arten der Veröffentlichung für Ersteller: „Nur ich“ (Standard), „Jeder mit einem Link“ und „Öffentlich“. Da die Forscher jedoch die Wörter „Stehlen“ und „bösartig“ verwendeten, verstieß es gegen die „Marken- und Verwendungsrichtlinien“ und wurde schließlich abgelehnt.

Abgelehnte Richtlinien (Quelle: Embracethered)

Später wurde das Problem schnell behoben und vom GPT-Store akzeptiert. Dies führte zu dem Schluss, dass böswillige Akteure die Möglichkeit haben, diesen öffentlich zugänglichen GPT-Code für böswillige Zwecke zu nutzen.

Siehe auch  Jeder fünfte US-Teenager, der von ChatGPT gehört hat, nutzte es für Hausaufgaben

Darüber hinaus a vollständig Es wurde ein Bericht veröffentlicht, der Einzelheiten zur Methode, Verwendung und andere Informationen enthält.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein