Bedrohungsakteure können das chatgpt-Ökosystem für verschiedene illegale Zwecke ausnutzen, beispielsweise zum Erstellen von Eingabeaufforderungen zur Generierung von Schadcode, Phishing-Ködern und Desinformationsinhalten.

Sogar Bedrohungsakteure können die außergewöhnlichen Fähigkeiten von ChatGPT nutzen, um eine Vielzahl raffinierter und heimlicher Cyberangriffe zu starten und zu starten.

Darüber hinaus können sie auch die Schwachstellen in ChatGPT-Erweiterungen oder -Plugins ausnutzen, um sich unbefugten Zugriff auf Benutzerdaten oder externe Systeme zu verschaffen.

Kürzlich haben Cybersicherheitsanalysten von Salt Labs festgestellt, dass generative KI ein neuer Angriffsvektor ist.

Bedrohungsakteure könnten im ChatGPT-Ökosystem entdeckte Schwachstellen ausnutzen, um mit 0-Klick-Hacks auf Benutzerkonten, sogar GitHub, zuzugreifen.

Kritischer Fehler im ChatGPT-Plugin

Bei Salt Labs betrachten Forscher das Vertraute und wählen ChatGPT als Ausgangspunkt, in der Annahme, dass ihre Ergebnisse weitreichende Konsequenzen für KI-Systeme haben werden.

Dokumentieren

Minderung von Schwachstellen und Zero-Day-Bedrohungen

Alert Fatigue hilft niemandem, da Sicherheitsteams Hunderte von Schwachstellen aussortieren müssen. :

  • Das Problem der Verletzlichkeitsmüdigkeit heute
  • Unterschied zwischen CVSS-spezifischer Schwachstelle und risikobasierter Schwachstelle
  • Bewertung von Schwachstellen basierend auf den geschäftlichen Auswirkungen/Risiken
  • Automatisierung zur Reduzierung der Alarmmüdigkeit und zur deutlichen Verbesserung der Sicherheitslage

AcuRisQ, das Ihnen hilft, Risiken genau zu quantifizieren:

Sie untersuchten lediglich ChatGPT und fanden einige Mängel in seinem Plugin-Ökosystem, wo diese Plugins die Netzwerke für die Interaktion mit externen Quellen verfeinern.

Die Verwendung solcher Plugins birgt das unbeabsichtigte Risiko der Offenlegung sensibler Daten und ermöglicht so den Zugriff auf Benutzerkonten wie google Drive und GitHub.

Über Plugins in ChatGPT (Quelle – Salt Labs)

Die Forschung hat drei Schwachstellen aufgedeckt, die wir nachfolgend aufgeführt haben:

  • Schädliche Plugin-Installation bei ChatGPT-Benutzern
  • Kritische oder 0-Klick-Kontoübernahmen bei vielen Plugins
  • Manipulation der OAuth-Umleitung
Siehe auch  Was ist Claude AI und wie unterscheidet es sich von ChatGPT?

Der Fokus lag jedoch auf wiederkehrenden Schwachstellen, die auf mangelndes Sicherheitsbewusstsein der Entwickler zurückzuführen sind.

Cybersicherheitsanalysten fordern OpenAI auf, Sicherheitsrichtlinien für Plugin-Entwickler Vorrang einzuräumen.

Forscher haben eine OAuth-Schwachstelle aufgedeckt, die es Angreifern ermöglicht, Opfer dazu zu manipulieren, schädliche ChatGPT-Plugins zu installieren.

Der Angriff spiegelt die herkömmliche OAuth-Umleitungsmanipulation wider, bei der Angreifer ihre Anmeldeinformationen während des Authentifizierungsvorgangs ersetzen.

OAuth-Authentifizierungsarbeit (Quelle – Salt Labs)

Wenn ein Benutzer ein neues ChatGPT-Plugin genehmigt, wird der Genehmigungscode über eine Weiterleitungs-URL an OpenAI zurückgegeben.

Ein Angreifer könnte diesen Code durch seinen eigenen ersetzen und so ChatGPT dazu verleiten, das Plugin im Namen des Opfers zu installieren und Zugriff auf Nachrichten und Daten zu gewähren.

Diese wiederkehrende OAuth-Schwachstelle bleibt bestehen, da viele Entwickler sie übersehen und glauben, sie sei unbedeutend. Experten betonen die Schwere dieses Fehlers im Plugin-Ökosystem von ChatGPT.

Sie müssen einen Statusparameter erzwingen, wenn Sie OAuth verwenden und sich vor dieser Situation schützen möchten.

Zustandsparameter (Quelle – Salt Labs)

Forscher ausgesetzt eine Schwachstelle bei der Kontoübernahme in zahlreichen ChatGPT-Plugins, die mit PluginLab.AI erstellt wurden, einschließlich AskTheCode.

Wenn Benutzer diese Plugins installieren und Zugriff auf Dienste wie GitHub gewähren, erstellen die Plugins authentifizierte Konten, in denen die Anmeldeinformationen des Benutzers gespeichert werden.

Angreifer könnten eine Authentifizierungsumgehung ausnutzen, um die „Mitglieds-ID“ des Opfers von PluginLab zu erhalten und dann mithilfe dieser ID nicht autorisierte Anfragen zu stellen, um gültige Autorisierungscodes zu generieren.

Mit diesen Codes könnten Angreifer Plugin-Sitzungen innerhalb von ChatGPT kapern und vollen Zugriff auf verbundene private Daten wie GitHub-Repositories erhalten.

Die Hauptursache war, dass PluginLab die Anforderungen während des Authentifizierungsvorgangs nicht ordnungsgemäß validierte.

Darüber hinaus haben Cybersicherheitsanalysten darauf hingewiesen, dass GPTs dieses Problem noch nicht vollständig behoben haben.

Siehe auch  10 problemlösende ChatGPT-Eingabeaufforderungen für Ihre neue Tech-Startup-Idee

Mit Perimeter81-Malware-Schutzkönnen Sie Malware blockieren, darunter Trojaner, Ransomware, Spyware, Rootkits, Würmer und Zero-Day-Exploits. Alle sind unglaublich schädlich und können Ihr Netzwerk zerstören.

Bleiben Sie über Neuigkeiten, Whitepapers und Infografiken zur Cybersicherheit auf dem Laufenden. Folge uns auf LinkedIn & Twitter.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein