Das Grundproblem, nämlich die Vergiftung der Daten, die künstliche Intelligenz in ihrem Reaktionsvorhersagemodell verwendet, ist sehr komplex zu bewältigen.
Atlantik: chatgpt-prompt-injection-attack-security/#intcid=_wired-verso-hp-trending_5630b30b-174d-4709-9971-2ce5995e54ad_popular4-1″ target=“_blank“ rel=“noopener“>Aktuelle Analysen deuten darauf hin, dass Software wie Chat GPT oder Bing könnten leicht gehackt werden, indem in Webseiten eingefügte Eingabeaufforderungen verwendet werden, die für das bloße Auge unsichtbar, aber für eine künstliche Intelligenz vollständig erkennbar sind. Gibt es Ihrer Meinung nach Anlass zur Sorge?
Loic Guezo: Es gibt tatsächlich Anlass zur Sorge. Wir erleben bereits Entführungen künstlicher Intelligenz und diese werden zunehmend dokumentiert. Wir befinden uns derzeit in einer Phase der Bereitstellung dieser noch sehr jungen Technologien, was jedoch bedeutet, dass wir die Befürchtungen relativieren müssen: Sobald eine neue Technologie eingeführt wird, gibt es eine Anpassungsphase, die es ermöglicht, sie zu verstehen Was sind die guten Verwendungsmöglichkeiten? Es ist auch eine Gelegenheit, den Erfindungsreichtum und die Innovation zu beobachten, die die Angreifer bei ihren Versuchen an den Tag legen, diese Technologie abzulenken.
Im Kontext der künstlichen Intelligenz ist das positive Potenzial enorm. Ablenkungsszenarien sind bereits zu beobachten und stellen das Äquivalent zum Jailbreaking dar, wie es beispielsweise bei iPhones der Fall ist. Dadurch wird die KI von ethischen (oder anderen) Barrieren befreit, die der Lieferant möglicherweise aufwirft.
Im Allgemeinen ist die Zeit, in der wir heute leben, ziemlich beispiellos: Der Fortschritt dieser Technologie ist explosionsartig und die Sichtbarkeit, die sie in der breiten Öffentlichkeit hat, ist beispiellos. Es handelt sich um eine bahnbrechende Technologie, die innerhalb weniger Monate eingeführt wurde, während diese mathematischen Modelle und die damit verbundenen Computertheorien mehr als dreißig Jahre zurückreichen. Die Konvergenz dieser theoretischen Modelle und die Möglichkeit, sie für die breite Öffentlichkeit umzusetzen, ist ein Novum.
Wie kann ein solcher Fehler ausgenutzt werden, um Einzelpersonen und Benutzer solcher Software anzugreifen? Welchen Risiken sind sie durch den Einsatz solcher Technologien ausgesetzt? Müssen wir mehr globale Gefahren befürchten, wenn der Einsatz von KI demokratischer wird?
Der heute verwendete Fehler ist technisch gesehen recht einfach. Es erinnert an einen anderen seit langem bekannten Fehler, der bestimmte Websites bedroht, die auf Datenbanken vom Typ SQL basieren. Die fragliche Technologie namens „SQL-Injection“ besteht darin, ein Programm in eine Antwort einzufügen, die einer Variablen entspricht, die ein Mensch beispielsweise mithilfe eines Felds auswählen kann. Dieses Fenster ermöglicht dann die Übergabe von Befehlen, die ohne Wissen des Systementwicklers ausgeführt werden.
Im spezielleren Fall von Prompt-Injections besteht das Hijacking darin, einen Prompt auf einer Website zu platzieren und ihn für das menschliche Auge unsichtbar zu machen, indem eine kleine Schriftart und eine Farbe verwendet werden, die mit der der Seite identisch ist (was konkret bedeutet, dass der Text dies nicht tut). erscheinen auf dem Bildschirm). Dies hindert neue künstliche Intelligenzen nicht daran, diese zu lesen, sobald sie mit der Außenwelt verbunden sind und aktive Webinhalte abrufen können. Die KI übernimmt Inhalte von einer blockierten Website und führt dann die versteckte Eingabeaufforderung aus.
Sobald die künstliche Intelligenz gefangen ist, gerät sie unter die Kontrolle des Angreifers und man kann sich alle möglichen Ablenkungen vorstellen. Es wäre beispielsweise möglich, die Funktionsweise der betreffenden KI zu verändern, die Antworten, die sie geben kann, zu lenken oder die ursprünglich errichteten Barrieren, insbesondere in ethischer Hinsicht, abzubauen. Die Ergebnisse wären dann unglaublich.
Das zweite Risiko besteht natürlich darin, dass KI zum Extrahieren personenbezogener Daten eingesetzt wird, wenn ein Hacker Zugriff auf ein Computersystem erhält, das wahrscheinlich personenbezogene Daten verarbeitet. Diese entfalten ihren vollen Wert auf Märkten, die auf den Weiterverkauf dieser Art von Immobilien spezialisiert sind, oder wenn sie für gezielte Angriffe gegen dieselben Personen eingesetzt werden. Dazu gehören beispielsweise auch Zahlungskartendaten, Logins und Passwörter…
Wie bereits erwähnt, befinden wir uns in einer Phase der Entdeckung des Potenzials künstlicher Intelligenz. Seine Demokratisierung akzentuiert die Automatisierung und Digitalisierung der Prozesse und Systeme unserer Gesellschaft. Was auch immer passiert, wir werden dann mit einer Vervielfachung der damit verbundenen Risiken konfrontiert sein.
Derzeit scheint es kein verlässliches Mittel zu geben, um einen solchen Fehler zu beheben. Wie lange wird es Ihrer Meinung nach dauern, bis eine sichere Nutzung dieser Technologie erreicht ist? Können wir hoffen, eines Tages bei Risiko 0 anzukommen, oder stehen wir vor einer intrinsischen Schwäche des Systems?
Bei dem auf einer Website versteckten Prompt-Injection-Gerät handelt es sich lediglich um eine Zugriffstechnik. Es ist ganz einfach zu steuern und zu patchen. Andererseits ist das grundlegende Problem, nämlich die Vergiftung der Daten, die von der künstlichen Intelligenz in ihrem Antwortvorhersagemodell verwendet werden, viel komplexer zu bewältigen. Dies ist ein Problem, das mit dem Designmodell dieser Art künstlicher Intelligenz zusammenhängt.
Die Frage nach Risiko 0 stellt sich eigentlich nicht. Es gilt, dieses System zu beherrschen, um die bereits beobachteten Missbräuche zu vermeiden. Ich denke insbesondere an die Systeme, die wir beispielsweise als unhöflich, aggressiv, rassistisch, fremdenfeindlich oder frauenfeindlich erlebt haben.
Wie kann man sich als Benutzer schützen, während man auf mögliche Korrekturmaßnahmen wartet?
Die erste Schutzmaßnahme ist im gegenwärtigen Stand der Dinge und im Allgemeinen eine Nutzungsmaßnahme. Darüber hinaus müssen wir diese Technologien insbesondere in der Geschäftswelt sinnvoll nutzen. Viele von ihnen beginnen auch mit der Einführung von Schutzmaßnahmen und Verboten, um die unkontrollierte Nutzung solcher Tools zu verhindern. Die Parallele zu automatischen Übersetzungsgeräten, die ebenfalls auf KI-Technologien basieren, ist offensichtlich. Einige große Unternehmen verbieten die Verwendung von Online-Übersetzungswörterbüchern, da die Anforderung einer Übersetzung de facto dem Versenden (potenziell sensibler) Informationen nach außen gleichkommt.
Bei einer künstlichen Intelligenz wie der von Chat GPT ist die Argumentation dieselbe. Sie sollten ihm keine Fragen stellen, solange Sie nicht die Garantie haben, dass die im Rahmen dieser Frage übermittelten Daten ordnungsgemäß verwaltet werden. dass nichts die Sensibilität oder Vertraulichkeit des Unternehmens in Frage stellt.