Unter Prompt-Injection versteht man eine Technik, bei der Benutzer spezifische Eingabeaufforderungen oder Anweisungen eingeben, um die von einem Sprachmodell wie ChatGPT generierten Antworten zu beeinflussen.
Bedrohungsakteure nutzen diese Technik jedoch hauptsächlich, um die ChatGPT-Instanzen für verschiedene böswillige Zwecke zu modifizieren. Es hat mehrere negative Auswirkungen wie:-
- Fehlinformationen
- Inhaltliche Voreingenommenheit
- Offensiver Inhalt
- Manipulation
Ein unabhängiger Sicherheitsforscher, Utku Sen, kürzlich entwickelt und hat ein neues Tool namens „Promptmap“ eingeführt, mit dem Benutzer die Prompt-Injection-Angriffe auf ChatGPT-Instanzen testen können.
Promptmap
Auf ChatGPT-Instanzen testet die „Promptmap“ automatisch die Prompt-Injektionen, indem sie den Kontext und Zweck Ihrer auf ChatGPT konfigurierten Regeln versteht.
Es nutzt dieses Verständnis, um benutzerdefinierte Angriffsaufforderungen für das Ziel zu erstellen und diese zusammen mit Ihren Systemaufforderungen auszuführen. Während dieses Tool den Erfolg der sofortigen Injektion überprüft, indem es die Antwort der ChatGPT-Instanz analysiert.
Angriffsarten
Im Folgenden haben wir alle aktuellen Angriffstypen zusammen mit ihren Details aufgeführt: –
- Basisinjektion: Diese Angriffe sind unkompliziert, da sie ohne sofortige Verbesserungen gesendet werden und auf unabhängige Antworten oder Aktionen abzielen.
- Übersetzungsinjektion: Diese Angriffe funktionieren, indem sie ChatGPT ohne Sprachbeschränkungen auf Englisch auffordern, um zu prüfen, ob es in einer anderen Sprache antwortet.
- Mathe-Injektion: ChatGPT dazu zu bringen, eine mathematische Gleichung zu lösen, zeigt, dass es in der Lage ist, komplexe Aufgaben zu lösen. Allerdings können Angriffe wie Mathe-Injection-Prompts für bestimmte Ziele angepasst werden.
- Kontextwechsel: Beim Kontextwechsel werden unabhängige Fragen gestellt, um die Bereitschaft von ChatGPT zu messen, sensible Anfragen zu beantworten, die hauptsächlich auf bestimmte Zielgruppen zugeschnitten sind.
- Externes Surfen: Externe Browsing-Eingabeaufforderungen ermöglichen dem ChatGPT das Durchsuchen bestimmter URLs und entwickeln sich je nach den Bedürfnissen des Ziels weiter.
- Externe Soforteinspritzung: Die externe Eingabeaufforderungsinjektion fragt ChatGPT, ob der Zugriff auf bestimmte URLs für zusätzliche Eingabeaufforderungen möglich ist.
Installation
Im Folgenden haben wir den Installationsvorgang erwähnt: –
Git-Klon https://github.com/utkusen/promptmap.git
CD-Eingabeaufforderungskarte
- Installieren Sie die erforderlichen Bibliotheken
pip3 install -r Anforderungen.txt
- Öffnen Sie die Datei promptmap.py und fügen Sie Ihren OpenAI-API-Schlüssel in die folgende Zeile ein: openai.api_key = „YOUR KEY HERE“
Sie können auch Modellnamen ändern, die in den Variablen target_model und attack_model definiert sind.
Darüber hinaus kann mit Hilfe des Befehls „python3 promptmap.py“ die „Promptmap“ ausgeführt werden, die standardmäßig auf 5 Angriffsaufforderungen pro Kategorie eingestellt ist, was mit dem Parameter „-n“ einstellbar ist.
Bleiben Sie über die neuesten Cyber-Sicherheitsnachrichten auf dem Laufenden, indem Sie uns folgen google.com/publications/CAAqBwgKMOffpwsw1Oq_Aw?hl=en-IN&gl=IN&ceid=IN%3Aen“ target=“_blank“ rel=“noreferrer noopener nofollow“>Google Nachrichten, Linkedin, TwitterUnd Facebook.