Dank neuer chatgpt-Updates wie dem Code Interpreter gibt es bei der beliebten generativen künstlichen Intelligenz von OpenAI immer mehr Sicherheitsbedenken. Nach Recherchen des Sicherheitsexperten Johann Rehberger (und Nachfolgearbeit von Tom’s Hardware)ChatGPT weist eklatante Sicherheitslücken auf, die auf die neue Datei-Upload-Funktion zurückzuführen sind.
Der Tweet wurde möglicherweise gelöscht
Das jüngste Update von OpenAI auf ChatGPT Plus hat eine Vielzahl neuer Funktionen hinzugefügt, darunter die DALL-E-Bildgenerierung und den Code Interpreter, der die Ausführung von Python-Code und die Dateianalyse ermöglicht. Der Code wird in einer Sandbox-Umgebung erstellt und ausgeführt, die leider anfällig für Prompt-Injection-Angriffe ist.
Sam Altman von OpenAI bricht sein Schweigen zur KI-Verordnung
Bei dem Angriff handelt es sich um eine seit einiger Zeit bekannte Schwachstelle in ChatGPT. Dabei geht es darum, ChatGPT dazu zu verleiten, Anweisungen von einer Drittanbieter-URL auszuführen, was dazu führt, dass hochgeladene Dateien in eine URL-freundliche Zeichenfolge kodiert und diese Daten an eine bösartige Website gesendet werden. Während die Wahrscheinlichkeit eines solchen Angriffs bestimmte Bedingungen erfordert (z. B. muss der Benutzer aktiv eine schädliche URL in ChatGPT einfügen), bleibt das Risiko besorgniserregend. Diese Sicherheitsbedrohung könnte durch verschiedene Szenarien realisiert werden, einschließlich der Kompromittierung einer vertrauenswürdigen Website durch eine böswillige Eingabeaufforderung – oder durch Social-Engineering-Taktiken.
Tom’s Hardware hat eindrucksvoll getestet, wie anfällig Benutzer für diesen Angriff sein könnten. Der Exploit wurde getestet, indem eine gefälschte Umgebungsvariablendatei erstellt und ChatGPT verwendet wurde, um diese Daten zu verarbeiten und versehentlich an einen externen Server zu senden. Obwohl die Wirksamkeit des Exploits von Sitzung zu Sitzung unterschiedlich war (z. B. weigerte sich ChatGPT manchmal, externe Seiten zu laden oder Dateidaten zu übertragen), wirft es erhebliche Sicherheitsbedenken auf, insbesondere angesichts der Fähigkeit der KI, linux-Befehle zu lesen und auszuführen und von Benutzern hochgeladene Dateien in einer Linux-Umgebung zu verarbeiten. basierte virtuelle Umgebung.
Wie Tom’s Hardware in seinen Ergebnissen feststellt, ist die Existenz dieser Sicherheitslücke zwar unwahrscheinlich, aber erheblich. ChatGPT sollte idealerweise nicht führt Anweisungen von externen Webseiten aus, tut dies jedoch. Zerstampbarhat OpenAI um einen Kommentar gebeten, aber nicht sofort auf unsere Anfrage geantwortet.