Dank neuer chatgpt-Updates wie dem Code Interpreter gibt es bei der beliebten generativen künstlichen Intelligenz von OpenAI immer mehr Sicherheitsbedenken. Nach Recherchen des Sicherheitsexperten Johann Rehberger (und Nachfolgearbeit von Tom’s Hardware)ChatGPT weist eklatante Sicherheitslücken auf, die auf die neue Datei-Upload-Funktion zurückzuführen sind.

Das jüngste Update von OpenAI auf ChatGPT Plus hat eine Vielzahl neuer Funktionen hinzugefügt, darunter die DALL-E-Bildgenerierung und den Code Interpreter, der die Ausführung von Python-Code und die Dateianalyse ermöglicht. Der Code wird in einer Sandbox-Umgebung erstellt und ausgeführt, die leider anfällig für Prompt-Injection-Angriffe ist.

SIEHE AUCH:

Sam Altman von OpenAI bricht sein Schweigen zur KI-Verordnung

Bei dem Angriff handelt es sich um eine seit einiger Zeit bekannte Schwachstelle in ChatGPT. Dabei geht es darum, ChatGPT dazu zu verleiten, Anweisungen von einer Drittanbieter-URL auszuführen, was dazu führt, dass hochgeladene Dateien in eine URL-freundliche Zeichenfolge kodiert und diese Daten an eine bösartige Website gesendet werden. Während die Wahrscheinlichkeit eines solchen Angriffs bestimmte Bedingungen erfordert (z. B. muss der Benutzer aktiv eine schädliche URL in ChatGPT einfügen), bleibt das Risiko besorgniserregend. Diese Sicherheitsbedrohung könnte durch verschiedene Szenarien realisiert werden, einschließlich der Kompromittierung einer vertrauenswürdigen Website durch eine böswillige Eingabeaufforderung – oder durch Social-Engineering-Taktiken.

Tom’s Hardware hat eindrucksvoll getestet, wie anfällig Benutzer für diesen Angriff sein könnten. Der Exploit wurde getestet, indem eine gefälschte Umgebungsvariablendatei erstellt und ChatGPT verwendet wurde, um diese Daten zu verarbeiten und versehentlich an einen externen Server zu senden. Obwohl die Wirksamkeit des Exploits von Sitzung zu Sitzung unterschiedlich war (z. B. weigerte sich ChatGPT manchmal, externe Seiten zu laden oder Dateidaten zu übertragen), wirft es erhebliche Sicherheitsbedenken auf, insbesondere angesichts der Fähigkeit der KI, linux-Befehle zu lesen und auszuführen und von Benutzern hochgeladene Dateien in einer Linux-Umgebung zu verarbeiten. basierte virtuelle Umgebung.

Siehe auch  Garry Kasparov hatte lange vor ChatGPT einen Schach-Showdown mit der KI von IBM

Wie Tom’s Hardware in seinen Ergebnissen feststellt, ist die Existenz dieser Sicherheitslücke zwar unwahrscheinlich, aber erheblich. ChatGPT sollte idealerweise nicht führt Anweisungen von externen Webseiten aus, tut dies jedoch. Zerstampbarhat OpenAI um einen Kommentar gebeten, aber nicht sofort auf unsere Anfrage geantwortet.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein