Sicherheitsforscher haben kritische Sicherheitslücken in chatgpt-Plugins aufgedeckt. Durch die Ausnutzung dieser Schwachstellen könnten Angreifer die Kontrolle über das Konto einer Organisation auf Plattformen Dritter übernehmen und auf sensible Benutzerdaten, einschließlich personenbezogener Daten (Personal Identifiable Information, PII), zugreifen.

„Die in diesen ChatGPT-Plugins gefundenen Schwachstellen geben Anlass zur Sorge, da das Risiko des Diebstahls geschützter Informationen und die Gefahr von Kontoübernahmeangriffen erhöht ist“, kommentierte Darren Guccione, CEO und Mitbegründer von Keeper-Sicherheit.

„Mitarbeiter geben zunehmend proprietäre Daten in KI-Tools ein – darunter geistiges Eigentum, Finanzdaten, Geschäftsstrategien und mehr – und der unbefugte Zugriff durch einen böswilligen Akteur könnte für ein Unternehmen lähmend sein.“

Im November 2023 führte ChatGPT eine neue Funktion namens GPTs ein, die ähnlich wie Plugins funktioniert und ähnliche Sicherheitsrisiken mit sich bringt, was die Schwachstellenlandschaft weiter verschärft.

In einer heute veröffentlichten neuen Empfehlung identifizierte das Forschungsteam von Salt Security drei Arten von Schwachstellen in ChatGPT-Plugins. Erstens wurden Schwachstellen im Plugin-Installationsprozess selbst entdeckt, die es Angreifern ermöglichen, schädliche Plugins zu installieren und möglicherweise Benutzernachrichten mit proprietären Informationen abzufangen.

Zweitens wurden Fehler in PluginLab gefunden, einem Framework zur Entwicklung von ChatGPT-Plugins, die zu Kontoübernahmen auf Drittplattformen wie GitHub führen könnten.

Schließlich wurden in mehreren Plugins Schwachstellen zur Manipulation der OAuth-Umleitung identifiziert, die es Angreifern ermöglichen, Benutzeranmeldeinformationen zu stehlen und Kontoübernahmen durchzuführen.

Lesen Sie mehr über API-Sicherheit: Expo-Framework-API-Fehler enthüllt Benutzerdaten in Online-Diensten

„Generative KI-Tools wie ChatGPT haben schnell die Aufmerksamkeit von Millionen Menschen auf der ganzen Welt auf sich gezogen und rühmen sich des Potenzials, die Effizienz sowohl im Geschäftsbetrieb als auch im täglichen menschlichen Leben drastisch zu verbessern“, sagte Yaniv Balmas, Vizepräsident für Forschung bei Salt Security.

Siehe auch  Die 12 effektivsten ChatGPT-Anwendungsfälle – ChatGPT auf vc.ru

„Da immer mehr Unternehmen diese Art von Technologie nutzen, verlagern Angreifer ihre Bemühungen zu stark und suchen nach Möglichkeiten, diese Tools auszunutzen und sich anschließend Zugang zu sensiblen Daten zu verschaffen.“

Im Einklang mit koordinierten Offenlegungspraktiken Salt Labs hat mitgearbeitet mit OpenAI und Drittanbietern, um diese Probleme umgehend zu beheben und so das Risiko einer Ausbeutung in freier Wildbahn zu verringern.

„Sicherheitsteams können ihre Verteidigung gegen diese Schwachstellen mit einem mehrschichtigen Ansatz stärken“, erklärt Sarah Jones, Forschungsanalystin für Cyber-Bedrohungsinformationen bei Kritischer Start. Das beinhaltet:

  • Implementierung einer berechtigungsbasierten Installation

  • Einführung der Zwei-Faktor-Authentifizierung

  • Aufklärung der Benutzer über Code- und Link-Vorsicht

  • Ständige Überwachung der Plugin-Aktivität

  • Abonnieren von Sicherheitshinweisen für Updates

Bildnachweis: WaterStock / Shutterstock.com

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein