Neue Untersuchungen haben Sicherheitslücken im chatgpt gefunden, die es Hackern ermöglicht haben könnten, andere Konten von Benutzern, wie beispielsweise GitHub, zu übernehmen.

Salt Security stellte fest, dass verschiedene ChatGPT-Plugins kritische Sicherheitslücken aufwiesen. Mithilfe dieser Plugins kann das KI-Tool auf andere Websites zugreifen und bestimmte Aufgaben ausführen, beispielsweise das Festschreiben von Code in GitHub und das Abrufen von Daten von google Drive.

Aufgrund dieser Schwachstellen hätten Bedrohungsakteure Konten Dritter übernehmen und auf die darin enthaltenen sensiblen Daten zugreifen können. Die Mängel wurden inzwischen behoben.

Bedenken hinsichtlich des Plugins

Salt Security weist außerdem darauf hin, dass GPTs, die Plugins ähneln, ebenfalls ein ähnliches Risiko darstellen. Dabei handelt es sich um benutzerdefinierte Versionen von ChatGPT, die jeder Entwickler veröffentlichen kann.

In den ChatGPT-Plugins wurden drei verschiedene Fehler gefunden. Das erste wurde gefunden, als Benutzer neue Plugins installierten. ChatGPT sendet dem Benutzer einen Code, der die Installation genehmigt. Allerdings könnten Angreifer den Benutzern stattdessen einen Code geschickt haben, der ein bösartiges Plugin genehmigt.

Der zweite wurde in PluginLab gefunden, einer Website zur Entwicklung von ChatGPT-Plugins. Die Website konnte Benutzerkonten nicht ordnungsgemäß authentifizieren, was wiederum dazu hätte führen können, dass Hacker sie übernommen haben. Eines der davon betroffenen Plugins war „AskTheCode“, das eine Integration zwischen ChatGPT und GitHub ermöglicht.

Der dritte Fehler wurde in mehreren Plugins gefunden und beinhaltete die Manipulation der OAuth-Umleitung. Dies hätte auch eine Kontoübernahme ermöglichen können. Da URLs von den Plugins nicht validiert wurden, könnten Angreifer bösartige Links an Benutzer gesendet haben, um deren Anmeldeinformationen zu stehlen.

Siehe auch  ChatGPT und andere Sprach-KIs sind nichts ohne Menschen – erklärt ein Soziologe

Salt Security sagt, es habe das Verfahren befolgt, nachdem es die Mängel entdeckt und OpenAI und die anderen betroffenen Parteien benachrichtigt habe. Es wird behauptet, dass die Probleme schnell behoben wurden und dass es keine Hinweise auf einen Exploit in freier Wildbahn gab.

MEHR VON TECHRADAR PRO

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein