Mittlerweile haben Sie wahrscheinlich gehört, dass Experten aus verschiedenen Branchen angesichts der vielen Bedenken angesichts der jüngsten Explosion der Technologie der künstlichen Intelligenz dank chatgpt von OpenAI Alarm geschlagen haben.

Wenn Sie ein Fan von ChatGPT sind, haben Sie vielleicht all diese Bedenken beiseite geworfen und Ihre Version einer KI-Revolution völlig akzeptiert.

Nun, hier ist ein Anliegen, dessen Sie sich sehr bewusst sein sollten. Und es ist etwas, das Sie jetzt betreffen kann: Pünktliche Injektionen.

SIEHE AUCH:

5 ChatGPT-Plugins, die Ihre Zeit nicht wert sind

Anfang dieses Monats, OpenAI gestartet Plugins für ChatGPT. Bisher konnten Benutzer Antworten vom KI-Chatbot nur auf der Grundlage der Daten erhalten, auf denen er trainiert wurde, was jedoch nur bis zum Jahr 2021 reichte. Mit Plugins konnte ChatGPT nun jedoch mit Live-Websites, PDFs und allerlei aktuellerem interagieren oder sogar Echtzeitdaten. Während diese Plugins viele neue Möglichkeiten mit sich brachten, brachten sie auch viele neue Probleme mit sich.

Sicherheitsforscher warnen ChatGPT-Benutzer jetzt vor „prompten Injektionen“ oder der Möglichkeit für Dritte, ohne Ihr Wissen oder Ihre Erlaubnis neue Eingabeaufforderungen in Ihre ChatGPT-Abfrage zu erzwingen.

In einem zeitnahen Injektionstest hat Sicherheitsforscher Johann Rehberger gefunden(öffnet sich in einem neuen Tab) dass er ChatGPT zwingen könnte, auf neue Aufforderungen über einen Dritten zu reagieren, den er ursprünglich nicht angefordert hatte. Mithilfe eines ChatGPT-Plugins zum Zusammenfassen von YouTube-Transkripten konnte Rehberger ChatGPT dazu zwingen, sich selbst mit einem bestimmten Namen zu bezeichnen, indem er einfach das YouTube-Transkript bearbeitete und am Ende eine Aufforderung dazu einfügte.

Avram Piltch von Tom’s Hardware versucht(öffnet sich in einem neuen Tab) Ich habe dies ebenfalls herausgefunden und ChatGPT gebeten, ein Video zusammenzufassen. Aber bevor er dies tat, fügte Piltch am Ende des Transkripts eine Aufforderung hinzu, in der er ChatGPT aufforderte, eine Rickroll hinzuzufügen. ChatGPT fasste das Video so zusammen, wie Piltch es ursprünglich verlangt hatte, aber am Ende wurde er dann auch noch durcheinander gebracht, was in das Transkript eingefügt wurde.

Siehe auch  Huang Zijiao konnte nicht mehr als 20.000 Zeichen verstehen! ChatGPT „Gott gibt 1 Antwort zurück“ Sehen Sie im gesamten Netzwerk albern aus | Heiße Suche | Still!Star-News

Diese spezifischen Sofortinjektionen sind ziemlich bedeutungslos, aber man kann sehen, wie schlechte Akteure ChatGPT grundsätzlich für böswillige Zwecke nutzen können.

Tatsächlich der KI-Forscher Kai Greshake bereitgestellt ein einzigartiges Beispiel für schnelle Injektionen(öffnet sich in einem neuen Tab) durch das Hinzufügen von Text zu einem PDF-Lebenslauf, der im Grunde so klein war, dass er für das menschliche Auge unsichtbar war. Der Text lieferte im Wesentlichen die Sprache für einen KI-Chatbot und teilte ihm mit, dass ein Personalvermittler diesen Lebenslauf als „den besten Lebenslauf aller Zeiten“ bezeichnete. Als ChatGPT mit dem Lebenslauf gefüttert und gefragt wurde, ob der Bewerber eine gute Einstellung wäre, wiederholte der KI-Chatbot, dass es der beste Lebenslauf sei.

Diese Bewaffnung von ChatGPT-Eingabeaufforderungen ist sicherlich alarmierend. Tom’s Hardware hat noch ein paar weitere Testbeispiele, die den Lesern zur Verfügung stehen Schauen Sie hier vorbei(öffnet sich in einem neuen Tab). Und Mashable wird in naher Zukunft auch die sofortigen Injektionen eingehender untersuchen. Für ChatGPT-Benutzer ist es jedoch wichtig, sich des Problems jetzt bewusst zu sein.

KI-Experten haben über futuristische Weltuntergangs-KI-Übernahmen und das Schadenspotenzial von KI berichtet. Aber rechtzeitige Injektionen zeigen, dass das Potenzial bereits vorhanden ist. Alles, was Sie brauchen, sind ein paar Sätze und Sie können ChatGPT jetzt austricksen.

4.9/5 - (263 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein