Die kritischen Schwachstellen ermöglichten den unbefugten Zugriff auf Konten und sensible Benutzerdaten Dritter.

Das war chatgpt-extensions-allowed-access-to-accounts-on-third-party-websites-and-sensitive-data“ target=“_blank“>entdeckt von Forschern bei Salt Security. ChatGPT-Plugins bieten Interaktionsmöglichkeiten mit Diensten von Drittanbietern. Sie erledigen Aufgaben für Benutzer auf Plattformen wie GitHub, google Drive und Salesforce. Diese Plugins tragen dazu bei, die Funktionalität von ChatGPT zu erweitern, beispielsweise den Zugriff auf Daten auf Google Drive.

„Wenn Sie diese Plugins verwenden, erteilen Sie ChatGPT tatsächlich die Erlaubnis, vertrauliche Daten in Ihrem Namen an eine Website eines Drittanbieters zu senden, und je nach Plugin erteilen Sie diesen Plugins auch die Erlaubnis, auf Ihre privaten Konten auf Google Drive, GitHub usw. zuzugreifen Mehr“, erklärt Salt Security.

Drei Schwachstellen

Die Forscher entdeckten mehrere Schwachstellen in den Plugins. Erstens gibt es eine Sicherheitslücke in ChatGPT selbst. Wenn Benutzer neue Plugins installieren, leitet ChatGPT den Benutzer zur Website des Plugins weiter, um einen Code zu genehmigen. ChatGPT kann dann im Namen des Benutzers mit dem Plugin kommunizieren. Ein böswilliger Akteur kann diesen Prozess jedoch missbrauchen, indem er mit einem böswilligen Plugin die Codegenehmigung anfordert. Das bösartige Plugin ermöglicht es ihnen, das Benutzerkonto des Opfers anzugreifen. Anschließend wird jede Nachricht eines Benutzers an ChatGPT an das Plugin weitergeleitet. Wenn vertrauliche Informationen weitergegeben werden, gelangen diese somit an die böswillige Partei.

Die anderen Schwachstellen liegen eher bei externen Diensten. Dazu gehört eine Schwachstelle in PluginLab, einem Framework zur Entwicklung von Plugins. Salt Security hat festgestellt, dass PluginLab das Benutzerkonto während der Installation nicht korrekt authentifiziert hat. Indem ein Hacker dies geschickt ausnutzt, könnte er ein Konto übernehmen. Schließlich gab es noch eine weitere Schwachstelle im Zusammenhang mit der OAuth-Umleitung. Es stellte sich heraus, dass dieser Prozess missbraucht werden konnte, indem ein Link gesendet wurde, der einen Prozess zum Diebstahl von Anmeldeinformationen auslöste. Auch hier kam es zu einer Kontoübernahme.

Siehe auch  Diese von OpenAI-Alumni geschaffene künstliche Intelligenz übertrifft ChatGPT-4 und Google Gemini!

Salt Security hat OpenAI und die Drittanbieter benachrichtigt. Die Schwachstellen wurden inzwischen behoben.

Tipp: ChatGPT kann jetzt Antworten laut vorlesen

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein