Wir haben es gesagt Vor, und … nun ja sagen Es wieder: Geben Sie nichts in chatgpt ein, von dem Sie nicht möchten, dass Unbefugte es lesen.

Seit der Veröffentlichung von ChatGPT durch OpenAI im letzten Jahr gab es eine ganze Reihe von Fällen, in denen Schwachstellen im KI-Chatbot von böswilligen Akteuren als Waffe genutzt oder manipuliert werden konnten, um auf sensible oder private Daten zuzugreifen. Und dieses jüngste Beispiel zeigt, dass auch nach der Veröffentlichung eines Sicherheitspatches weiterhin Probleme bestehen können.

Laut einem Bericht von Piepender ComputerOpenAI hat kürzlich eine Lösung für ein Problem herausgebracht, bei dem ChatGPT Benutzerdaten an unbefugte Dritte weitergeben konnte. Zu diesen Daten können Benutzergespräche mit ChatGPT und entsprechende Metadaten wie die ID eines Benutzers und Sitzungsinformationen gehören.

Allerdings, so der Sicherheitsforscher Johann Rehberger, der die Schwachstelle ursprünglich entdeckte und darlegte, wie sie funktionierte, gibt es immer noch klaffende Sicherheitslücken im OpenAI-Fix. Im Wesentlichen besteht die Sicherheitslücke weiterhin.

Das ChatGPT-Datenleck

Rehberger konnte die kürzlich veröffentlichten und viel gelobten OpenAI-Lösungen nutzen benutzerdefinierte GPTs Funktion zum Erstellen seines eigenen GPT, das Daten aus ChatGPT exfiltriert. Dies war eine wichtige Erkenntnis, da benutzerdefinierte GPTs als KI-Apps vermarktet werden, ähnlich wie das iphone mobile Anwendungen mit dem App Store revolutionierte. Wenn Rehberger dieses benutzerdefinierte GPT erstellen könnte, könnten Kriminelle den Fehler offenbar bald entdecken und benutzerdefinierte GPTs erstellen, um Daten von ihren Zielen zu stehlen.

Rehberger sagt er zuerst kontaktiert OpenAI über die „Datenexfiltrationstechnik“ bereits im April. Im November kontaktierte er OpenAI erneut, um genau zu berichten, wie er ein benutzerdefiniertes GPT erstellen und den Prozess durchführen konnte.

Siehe auch  Der Autor von „Game of Thrones“ verklagt ChatGPT-Entwickler wegen Urheberrechtsverletzung

Am Mittwoch, Rehberger habe ein Update gepostet zu seiner Website. OpenAI hatte die Leak-Schwachstelle gepatcht.

„Die Lösung ist nicht perfekt, aber ein Schritt in die richtige Richtung“, erklärte Rehberger.

Der Grund dafür, dass die Lösung nicht perfekt ist, liegt darin, dass ChatGPT aufgrund der von Rehberger entdeckten Schwachstelle immer noch Daten preisgibt. ChatGPT kann immer noch dazu verleitet werden, Daten zu senden.

„Einige schnelle Tests zeigen, dass kleine Informationen gestohlen werden können [sic] „Ein Leck“, schrieb Rehberger und erklärte weiter, dass „auf diese Weise nur kleine Mengen austreten, langsamer ist und für den Benutzer deutlicher wahrnehmbar ist.“ Unabhängig von den verbleibenden Problemen sagte Rehberger, es sei „mit Sicherheit ein Schritt in die richtige Richtung“.

Allerdings besteht die Sicherheitslücke immer noch vollständig in den ChatGPT-Apps für iOS und Android, die noch mit einem Fix aktualisiert werden müssen.

ChatGPT-Benutzer sollten bei der Verwendung benutzerdefinierter GPTs wachsam bleiben und diese KI-Apps von unbekannten Dritten wahrscheinlich weitergeben.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein