Die Forscher von Salt Labs identifizierten die Plugin-Funktionalität, die jetzt als GPTs bekannt ist, als einen neuen Angriffsvektor, bei dem Schwachstellen den Zugriff auf Benutzerkonten von Drittanbietern, einschließlich GitHub-Repositories, ermöglicht haben könnten.
PALO ALTO, Kalifornien., 13. März 2024 /PRNewswire/ — Salzsicherheitdas führende API-Sicherheitsunternehmen, hat heute eine neue Bedrohungsstudie von veröffentlicht Salzlabore Hervorhebung kritischer Sicherheitslücken in chatgpt-Plugins und Hervorhebung eines neuen Risikos für Unternehmen. Plugins bieten KI-Chatbots wie ChatGPT Zugriff und Berechtigungen, um Aufgaben im Namen von Benutzern auf Websites Dritter auszuführen. Beispielsweise das Übertragen von Code in GitHub-Repositorys oder das Abrufen von Daten aus den google Drives einer Organisation. Diese Sicherheitslücken führen zu einem neuen Angriffsvektor und könnten Angreifern Folgendes ermöglichen:
- Erhalten Sie die Kontrolle über das Konto einer Organisation auf Websites Dritter
- Ermöglichen Sie den Zugriff auf personenbezogene Daten (PII) und andere sensible Benutzerdaten, die in Anwendungen Dritter gespeichert sind
ChatGPT-Plugins erweitern die Fähigkeiten des Modells und ermöglichen dem Chatbot die Interaktion mit externen Diensten. Die Integration dieser Drittanbieter-Plugins verbessert die Anwendbarkeit von ChatGPT in verschiedenen Bereichen erheblich, von der Softwareentwicklung und Datenverwaltung bis hin zu Bildungs- und Geschäftsumgebungen. Wenn Organisationen solche Plugins nutzen, erteilt es ChatGPT anschließend die Erlaubnis, vertrauliche Daten einer Organisation an die Website eines Drittanbieters zu senden und den Zugriff auf private externe Konten zu ermöglichen. Insbesondere in November 2023, ChatGPT führte eine neue Funktion ein, GPTs, ein ähnliches Konzept wie Plugins. GPTs sind benutzerdefinierte Versionen von ChatGPT, die jeder Entwickler veröffentlichen kann, und enthalten eine Option namens „Aktion“, die es mit der Außenwelt verbindet. GPTs bergen ähnliche Sicherheitsrisiken wie Plugins.
Das Salt Labs-Team hat drei verschiedene Arten von Schwachstellen in ChatGPT-Plugins entdeckt.
Das erste Problem wurde in ChatGPT selbst festgestellt, als Benutzer neue Plugins installierten. Während dieses Vorgangs leitet ChatGPT einen Benutzer zur Plugin-Website weiter, um einen Code zu erhalten, der von dieser Person genehmigt werden muss. Wenn ChatGPT den genehmigten Code von einem Benutzer erhält, installiert es automatisch das Plugin und kann im Namen des Benutzers mit diesem Plugin interagieren. Forscher von Salt Labs haben herausgefunden, dass ein Angreifer diese Funktion ausnutzen könnte, um Benutzern stattdessen eine Codegenehmigung mit einem neuen bösartigen Plugin zu übermitteln, wodurch ein Angreifer seine Anmeldeinformationen automatisch auf dem Konto eines Opfers installieren kann. Jede Nachricht, die der Benutzer in ChatGPT schreibt, kann an ein Plugin weitergeleitet werden, was bedeutet, dass ein Angreifer Zugriff auf eine Vielzahl proprietärer Informationen hätte.
Die zweite Schwachstelle wurde in PluginLab (pluginlab.ai) entdeckt, einem Framework, das Entwickler und Unternehmen zur Entwicklung von Plugins für ChatGPT verwenden. Während der Installation stellten die Forscher von Salt Labs fest, dass PluginLab Benutzerkonten nicht ordnungsgemäß authentifizierte, was es einem potenziellen Angreifer ermöglicht hätte, eine andere Benutzer-ID einzufügen und einen Code zu erhalten, der das Opfer darstellt, was zur Kontoübernahme des Plugins führte. Eines der betroffenen Plugins ist „AskTheCode“, das zwischen ChatGPT und GitHub integriert, was bedeutet, dass ein Angreifer durch Ausnutzung der Schwachstelle Zugriff auf das GitHub-Konto eines Opfers erhalten kann.
Die dritte und letzte Schwachstelle, die in mehreren Plugins aufgedeckt wurde, war die Manipulation der OAuth-Umleitung (Open Authorization). Ähnlich wie bei pluginlab.ai handelt es sich um eine Kontoübernahme für das ChatGPT-Plugin selbst. Bei dieser Sicherheitslücke könnte ein Angreifer einen Link an das Opfer senden. Mehrere Plugins validieren die URLs nicht, was bedeutet, dass ein Angreifer eine bösartige URL einfügen und Benutzeranmeldeinformationen stehlen kann. Wie im Fall von Pluginlab.ai verfügt ein Angreifer dann über die Zugangsdaten (Code) des Opfers und kann auf die gleiche Weise dessen Konto übernehmen.
Als die Sicherheitslücken entdeckt wurden, folgten die Forscher von Salt Labs koordinierten Offenlegungspraktiken mit OpenAI und Drittanbietern, und alle Probleme wurden schnell behoben, ohne dass es Hinweise darauf gab, dass diese Schwachstellen in freier Wildbahn ausgenutzt wurden.
„Generative KI-Tools wie ChatGPT haben schnell die Aufmerksamkeit von Millionen Menschen auf der ganzen Welt auf sich gezogen und rühmen sich des Potenzials, die Effizienz sowohl im Geschäftsbetrieb als auch im täglichen menschlichen Leben drastisch zu verbessern“, sagte er Yaniv Balmas, Vizepräsident für Forschung, Salt Security. „Da immer mehr Unternehmen diese Art von Technologie nutzen, konzentrieren sich Angreifer immer mehr darauf, Wege zu finden, diese Tools auszunutzen und sich anschließend Zugang zu sensiblen Daten zu verschaffen. Unsere jüngsten Schwachstellenentdeckungen in ChatGPT verdeutlichen, wie wichtig es ist, die Plugins dieser Technologie zu schützen, um dies sicherzustellen.“ Angreifer können nicht auf kritische Unternehmensressourcen zugreifen und Kontoübernahmen durchführen.“
Entsprechend der Salt Security State of API Security Report, Q1 2023gab es einen Anstieg von 400 % bei einzelnen Angreifern, die Salt-Kunden ins Visier nahmen. Der Salt Security API-Schutzplattform ermöglicht es Unternehmen, Risiken und Schwachstellen in APIs zu erkennen, bevor sie von Angreifern ausgenutzt werden, einschließlich der in der Liste aufgeführten OWASP API-Sicherheit Top 10. Die Plattform schützt APIs über ihren gesamten Lebenszyklus hinweg – Erstellungs-, Bereitstellungs- und Laufzeitphasen – und nutzt cloudbasierte Big Data in Kombination mit KI und ML, um Millionen von Benutzern und APIs zu etablieren. Durch die Bereitstellung kontextbasierter Erkenntnisse über den gesamten API-Lebenszyklus hinweg ermöglicht Salt Benutzern, die Aufklärungsaktivitäten böswilliger Akteure zu erkennen und sie zu blockieren, bevor sie ihr Ziel erreichen können.
Der vollständige Bericht, einschließlich der Art und Weise, wie Salt Labs diese Forschung durchgeführt hat, und Maßnahmen zur Schadensbegrenzung ist verfügbar Hier. Um mehr über Salt Security zu erfahren oder eine Demo anzufordern, besuchen Sie bitte https://content.salt.security/demo.html.
Über Salt Security Als Pionier des API-Sicherheitsmarktes schützt Salt Security die APIs, die den Kern jeder modernen Anwendung bilden. Die API Protection Platform von Salt schützt einige der größten Unternehmen der Welt und ist die einzige API-Sicherheitslösung, die die Leistungsfähigkeit von Big Data im Cloud-Maßstab und bewährter ML/KI kombiniert, um API-Angriffe zu erkennen und zu verhindern. Mit seinem patentierten Ansatz zum Blockieren der heutigen Low-and-Slow-API-Angriffe bietet nur Salt die adaptive Intelligenz, die zum Schutz von APIs erforderlich ist. Die Posture-Governance-Engine von Salt bietet außerdem eine operationelle API-Governance und Bedrohungserkennung im gesamten Unternehmen in großem Maßstab. Im Gegensatz zu anderen API-Governance-Lösungen greift die KI-basierte Laufzeit-Engine von Salt Security auf den größten Datensee zurück, um die Engine kontinuierlich zu trainieren. Salt unterstützt Unternehmen auf dem gesamten API-Weg von der Erkennung über die Haltungsverwaltung bis hin zum Bedrohungsschutz. Durch die schnelle Bereitstellung und nahtlose Integration in bestehende Systeme bietet die Salt-Plattform den Kunden sofortigen Mehrwert und Schutz, sodass sie bedenkenlos Innovationen einführen und ihre Initiativen zur digitalen Transformation beschleunigen können. Für weitere Informationen besuchen Sie: https://salt.security/
Medienkontakt Sena McGrand Lumina Communications für Salt Security [email protected]
QUELLE Salt Security