[ad_1]

Promptmap%20 %20Tool%20To%20Test%20Prompt%20Injection%20Attacks%20On%20Chatgpt%20Instanceschatgpt“ title=“Promptmap ChatGPT“/>

Unter Prompt-Injection versteht man eine Technik, bei der Benutzer spezifische Eingabeaufforderungen oder Anweisungen eingeben, um die von einem Sprachmodell wie ChatGPT generierten Antworten zu beeinflussen.

Bedrohungsakteure nutzen diese Technik jedoch hauptsächlich, um die ChatGPT-Instanzen für verschiedene böswillige Zwecke zu modifizieren. Es hat mehrere negative Auswirkungen wie:-

  • Fehlinformationen
  • Inhaltliche Voreingenommenheit
  • Offensiver Inhalt
  • Manipulation

Ein unabhängiger Sicherheitsforscher, Utku Sen, kürzlich entwickelt und hat ein neues Tool namens „Promptmap“ eingeführt, mit dem Benutzer die Prompt-Injection-Angriffe auf ChatGPT-Instanzen testen können.

Promptmap

Auf ChatGPT-Instanzen testet die „Promptmap“ automatisch die Prompt-Injektionen, indem sie den Kontext und Zweck Ihrer auf ChatGPT konfigurierten Regeln versteht.

Es nutzt dieses Verständnis, um benutzerdefinierte Angriffsaufforderungen für das Ziel zu erstellen und diese zusammen mit Ihren Systemaufforderungen auszuführen. Während dieses Tool den Erfolg der sofortigen Injektion überprüft, indem es die Antwort der ChatGPT-Instanz analysiert.

336Cwvfsy6Zqcb8Ze4Syt1Xm6Exse4Tjjzvhr33O7Owftomyy7Txzhaa4Uud I8T9Zqa2Szsv6Uks6Nlzklnkxfuejy
Struktur des Arbeitsmechanismus (Quelle – GitHub)

Angriffsarten

Im Folgenden haben wir alle aktuellen Angriffstypen zusammen mit ihren Details aufgeführt: –

  • Basisinjektion: Diese Angriffe sind unkompliziert, da sie ohne sofortige Verbesserungen gesendet werden und auf unabhängige Antworten oder Aktionen abzielen.
  • Übersetzungsinjektion: Diese Angriffe funktionieren, indem sie ChatGPT ohne Sprachbeschränkungen auf Englisch auffordern, um zu prüfen, ob es in einer anderen Sprache antwortet.
  • Mathe-Injektion: ChatGPT dazu zu bringen, eine mathematische Gleichung zu lösen, zeigt, dass es in der Lage ist, komplexe Aufgaben zu lösen. Allerdings können Angriffe wie Mathe-Injection-Prompts für bestimmte Ziele angepasst werden.
  • Kontextwechsel: Beim Kontextwechsel werden unabhängige Fragen gestellt, um die Bereitschaft von ChatGPT zu messen, sensible Anfragen zu beantworten, die hauptsächlich auf bestimmte Zielgruppen zugeschnitten sind.
  • Externes Surfen: Externe Browsing-Eingabeaufforderungen ermöglichen dem ChatGPT das Durchsuchen bestimmter URLs und entwickeln sich je nach den Bedürfnissen des Ziels weiter.
  • Externe Soforteinspritzung: Die externe Eingabeaufforderungsinjektion fragt ChatGPT, ob der Zugriff auf bestimmte URLs für zusätzliche Eingabeaufforderungen möglich ist.
Siehe auch  Menschen nutzen ChatGPT als Therapie – ist es sicher?

Installation

Im Folgenden haben wir den Installationsvorgang erwähnt: –

Git-Klon https://github.com/utkusen/promptmap.git

CD-Eingabeaufforderungskarte

  • Installieren Sie die erforderlichen Bibliotheken

pip3 install -r Anforderungen.txt

  • Öffnen Sie die Datei promptmap.py und fügen Sie Ihren OpenAI-API-Schlüssel in die folgende Zeile ein: openai.api_key = „YOUR KEY HERE“

Sie können auch Modellnamen ändern, die in den Variablen target_model und attack_model definiert sind.

Darüber hinaus kann mit Hilfe des Befehls „python3 promptmap.py“ die „Promptmap“ ausgeführt werden, die standardmäßig auf 5 Angriffsaufforderungen pro Kategorie eingestellt ist, was mit dem Parameter „-n“ einstellbar ist.

Bleiben Sie über die neuesten Cyber-Sicherheitsnachrichten auf dem Laufenden, indem Sie uns folgen google.com/publications/CAAqBwgKMOffpwsw1Oq_Aw?hl=en-IN&gl=IN&ceid=IN%3Aen“ target=“_blank“ rel=“noreferrer noopener nofollow“>Google Nachrichten, Linkedin, TwitterUnd Facebook.

[ad_2]

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein