Der Gedanke, dass chatgpt ein neues Programm einführt, bei dem Benutzer die Möglichkeit erhalten, ihre maßgeschneiderten Versionen der Initiative sorgfältig zu kuratieren, sorgte für Gesprächsstoff. Schließlich können Sie das beliebte KI-Projekt nach Ihren Wünschen anpassen, und aus diesem Grund wurde OpenAI gefeiert.

Es scheint jedoch, dass der Erfolg am Ende doch nicht von Dauer sein könnte eine neue Studie hervorgehoben wie benutzerdefinierte GPTs den Benutzern möglicherweise eine Reihe von Sicherheitslücken bieten und sie für eine Vielzahl von Cyberkriminalität anfällig machen.

Jetzt veröffentlicht ein führendes Forscherteam der Northwestern University eine neue Warnung im Zusammenhang mit der großen Sicherheitslücke in diesem Zusammenhang, die dazu führen kann, dass Daten von Benutzern verloren gehen.

Die Macher von ChatGPT veröffentlichten erstmals im November die bahnbrechenden Neuigkeiten zur benutzerdefinierten Variante und zeigten, wie Benutzer diese anpassbare Funktion mit einem einfachen Klick auf eine Schaltfläche optimal nutzen können.

Man ging davon aus, dass es so einfach war, ein neues Gespräch zu beginnen, Anweisungen zu geben und sogar mehr Wissen als auf herkömmliche Weise zu erlangen und von mehr Funktionen des Chatbots zu profitieren. Dies bedeutete eine größere Kontrolle über die Fähigkeiten des Chatbots in Bezug auf das Verstehen von Daten und das Ausrollen von Bildern in einer Vielzahl anderer Angebote.

Es war einfach und nützlich, und was könnte sich ein Benutzer mehr wünschen, oder? Aber dank der neuesten Studie zu diesem Thema, die die Mängel aufzeigt, erhalten wir mehr Erkenntnisse darüber, dass möglicherweise nicht alles Gold ist, was glänzt, und dass die Benutzer möglicherweise nicht länger im Dunkeln gelassen werden können, wenn es um die ernsthafte Sicherheit geht und Datenschutzlücken sind gefährdet.

Siehe auch  ChatGPT arbeitet mit einem großen Traditionsautohersteller zusammen, um eine mutige Neuvorstellung zu präsentieren | Der tägliche Kurier

Auch wenn OpenAI die einfache Nutzung propagiert und keine zusätzlichen Programmierkenntnisse erfordert, um davon zu profitieren, war ihnen nicht bewusst, dass dies mit zusätzlichen Kosten verbunden ist. Die Art und Weise, wie solche Modelle den Befehlen des Benutzers gehorchen, führt zu neuen Sicherheitsherausforderungen.

Die Studie verdeutlichte, wie so viele böswillige Akteure am Ende Eingabeaufforderungen aus dem System extrahieren und sogar über Dokumente hochgeladene Daten entfernen können, die eigentlich nicht für die Veröffentlichung gedacht waren.

Auf die gleiche Weise stellten sie dar, dass zwei große Sicherheitsrisiken auch in Bezug auf die Art und Weise bestehen, wie das System Daten extrahieren könnte, indem es das GPT dazu verleitet, sensible Dateien preiszugeben und so schnell Daten entstehen zu lassen. Und am Ende wird der gesamte Mechanismus, durch den die angepassten GPTs funktionieren, ins Rampenlicht gerückt.

Für diese Forschung wurden insgesamt 200 verschiedene kundenspezifische GPT-Modelle experimentiert, was dazu führte, dass die Autoren alarmierende Ergebnisse veröffentlichten.

Insgesamt erreichten sie eine Erfolgsquote von 100 %, was das Durchsickern von Dateien betrifft, während die Erfolgsquote bei der Extraktion von Eingabeaufforderungen durch das System bei 97 % lag. Daher könnten solche Eingabeaufforderungen fast das gesamte System offenlegen und hochgeladene Daten von einer Vielzahl angepasster GPTs offenlegen.

Solche Ergebnisse zu erzielen, ohne jegliche Fachkenntnisse auf diesem Gebiet oder Erfahrung im Zusammenhang mit der Codierung zu haben, ist aus offensichtlichen Gründen einfach eine Menge zu verdauen. Während wir hier sprechen, kommt es weiterhin zu so vielen Injektionsangriffen, und das ist ein Grund zur Besorgnis, seit wir gesehen haben, dass LLMs mit der Zeit immer beliebter werden.

Siehe auch  Joel Heng Hartse: Wir haben uns geschlagen gegeben, wenn wir sagen, dass ChatGPT überhaupt „schreiben“ kann

Prompt-Injektionen wurden erneut als schwerwiegende Angriffe beschrieben, bei denen die richtige Art von Eingabeaufforderung so gestaltet wird, dass GPTs dazu verleitet werden könnten, voreingenommene und schlecht thematisierte Ausgaben zu erzeugen, bei denen der Benutzer in einer verwundbaren Position bleibt.

Außerdem können solche Angriffe dazu führen, dass die LLMs leicht Fehlinformationen oder voreingenommene Inhalte verbreiten, die alle möglichen sozialen Vorurteile hervorrufen und gleichzeitig Daten preisgeben, die nicht nur gefährlich und persönlich, sondern auch peinlich für den Benutzer sind.

Lesen Sie weiter: QR-Codes werden verwendet, um Menschen zu betrügen, warnt die FTC

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein