[ad_1]

Eines der besten Dinge an chatgpt ist die riesige Bibliothek an Plugins von Drittanbietern, mit denen der KI-Chatbot weit mehr leisten kann, als OpenAI ihn ursprünglich entwickelt hat. Von Plugins, die das Ausführen von Berechnungen erleichtern, bis hin zu solchen, die es Ihnen ermöglichen, Informationen aus Ihren externen Konten abzurufen: Ein Cybersicherheitsunternehmen hat eine deutliche Warnung vor vertrauenswürdigen Plugins sowie den Sicherheitslücken herausgegeben, die böswilligen Akteuren Zugriff auf Ihre anderen Konten verschaffen könnten.

Der neue Forschung, das von Salt Labs geleitet wurde, warnt davor, dass Sicherheitslücken, die direkt in ChatGPT sowie im KI-Ökosystem gefunden werden, Angreifern die Möglichkeit geben könnten, schädliche Plugins ohne Ihre Zustimmung zu installieren. Dies würde es den Kriminellen effektiv ermöglichen, Ihr Konto zu kapern und sich Zugriff auf Websites Dritter wie Github zu verschaffen.

Die gute Nachricht hier ist natürlich OpenAI wird bereits eingestellt die Verwendung von ChatGPT-Plugins, indem er in einem Beitrag schreibt, dass die Installation neuer Plugins am 19. März 2024 beendet wird. Alle derzeit verwendeten Plugins werden nach dem 9. April 2024 nicht mehr verfügbar sein. Auch wenn es angesichts der Nützlichkeit kontraintuitiv erscheinen mag Plugins sein können, hat OpenAI die aus Plugins gewonnenen Informationen verwendet, um GPTs zu erstellen, mit denen Sie die KI individuell an bestimmte Anwendungsfälle anpassen können.

Chatgpt-Fotoillustration
In Dieser Fotoabbildung Wird Das Chatgpt (Openai)-Logo Auf Einem Smartphone-Bildschirm Angezeigt. Bildquelle: Rafael Henrique/Sopa Images/Lightrocket Über Getty Images

Das ist auch gut so, denn Salt Labs gibt an, dass einer der größten entdeckten Fehler ein Exploit war, der es Kriminellen ermöglichte, den OAuth-Workflow auszunutzen und Benutzer dazu zu verleiten, ein beliebiges Plugin zu installieren. All dies war möglich, da ChatGPT nicht überprüft, ob der Benutzer mit der Plugin-Installation begonnen hat. Es ist eine großartige Chance für Kriminelle, einzugreifen und alle vom Opfer weitergegebenen Daten abzufangen.

Über diesen Exploit hinaus deckte Salt Labs jedoch auch Probleme mit PluginLab auf und gab an, dass böswillige Akteure diese Probleme zu Waffen nutzen könnten, um Zero-Click-Angriffe zur Kontoübernahme zu starten und dabei ChatGPT-Plugins als Ausgangspunkt zu nutzen. Dies würde es diesen Bedrohungsakteuren ermöglichen, Zugriff auf verbundene Websites Dritter wie GitHub zu erhalten. KI-Sprachmodelle wie die, die ChatGPT unterstützen, können außerordentlich hilfreich sein, wenn Sie sie richtig verwenden. Die in den Plugin-Optionen von ChatGPT gefundenen Exploits zeigen jedoch, wie wichtig es nach wie vor ist, beim Online-Schutz wachsam zu bleiben und sich immer darüber im Klaren zu sein, was Sie installieren, wenn Sie mit diesen Systemen arbeiten.

[ad_2]

5/5 - (159 votes)
Anzeige
  • Schlagworte
  • KI
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein