Sayem Ahmed

chatgpt hat die moderne Technologielandschaft massiv verändert, aber mit neuen KI-Technologien kommen auch neue Schwachstellen, wie Kaspersky in einem neuen Bericht feststellt.

Die Begeisterung für ChatGPT und KI scheint kein Ende zu zeigen, da auf der CES 2024 Dutzende neuer Geräte mit Fokus auf KI vorgestellt werden. Es wurde jedoch festgestellt, dass eine der größten KI-Anwendungen der Welt, ChatGPT, mehrere Schwachstellen aufweist, die es Ihnen ermöglichen, über die integrierten Sicherheitsleitplanken zu springen, wie aus einem neuen Bericht eines Sicherheitsunternehmens hervorgeht Kaspersky (über Das Register) hat gezeigt.

Artikel wird nach Anzeige fortgesetzt

Zwischen Januar und Dezember 2023 zeigen Berichte einen Boom bei der Verwendung von GPT zur Erstellung von Malware, die auf der ChatGPT-Domäne ausgeführt wird. Kaspersky weist zwar darauf hin, dass bisher noch keine Schadsoftware dieser Art aufgetaucht sei, sie bleibe aber auch in Zukunft eine Bedrohung.

Außerdem wird gezeigt, wie ChatGPT zur Unterstützung von Straftaten eingesetzt werden kann, indem ChatGPT Code generiert, um Probleme zu lösen, die beim Diebstahl von Benutzerdaten auftreten. Kaspersky weist darauf hin, dass ChatGPT die Eintrittsbarriere für Benutzer senken kann, die das Wissen der KI für böswillige Zwecke nutzen möchten. „Aktionen, für die früher ein Team aus erfahrenen Leuten erforderlich war, können jetzt auch von Anfängern auf einem einfachen Niveau durchgeführt werden.“ Kaspersky stellt in seinem Bericht fest.

Jailbreak-Eingabeaufforderungen gekauft und verkauft

Freepik

ChatGPT-Jailbreaks sind nichts Neues, wie zum Beispiel der „Grandma“-Exploit, der letztes Jahr Berühmtheit erlangte. Allerdings wurden viele dieser Exploits inzwischen von OpenAI blockiert. Aber es gibt sie immer noch und sie sind im Angebot, wenn Sie wissen, wo Sie suchen müssen. Kasperskys Bericht behauptet, dass im Jahr 2023 „249 Angebote zum Vertrieb und Verkauf solcher Prompt-Sets gefunden wurden“.

Diese Jailbreak-Eingabeaufforderungen sind angeblich weit verbreitet und werden von Benutzern „sozialer Plattformen und Mitgliedern von Schattenforen“ gefunden. Das Sicherheitsunternehmen weist jedoch darauf hin, dass nicht alle Eingabeaufforderungen darauf ausgelegt sind, illegale Aktionen auszuführen, und dass einige dazu dienen, genauere Ergebnisse zu erhalten.

Artikel wird nach Anzeige fortgesetzt

In dem Bericht heißt es weiterhin, dass es einfach sei, Informationen von ChatGPT zu erhalten, die normalerweise eingeschränkt sind, indem man einfach erneut danach fragt.

In dem Bericht heißt es weiterhin, dass ChatGPT auch in Penetrationstestszenarien eingesetzt werden kann, ebenso wie die Verwendung des Basis-LLM in „bösen“ Modulen, die Schaden anrichten und sich auf illegale Aktivitäten konzentrieren.

Boom der KI-Kriminalität

Die Zahl „betrügerischer“ oder „bösartiger“ ChatGPT-Behauptungen nimmt zu, da sie nur darauf abzielen, Benutzerdaten zu fälschen und zu verbreiten. Dies kann mit der Anzahl der gestohlenen ChatGPT Plus-Konten einhergehen, die illegal im Dark Web verkauft werden. Die Zahl der KI-bezogenen Beiträge erreichte im April 2023 ihren Höhepunkt, bleibt aber für Nutzer bösartiger Foren weiterhin von Interesse. Kaspersky beendet seinen Bericht mit einer deutlichen Warnung:

Artikel wird nach Anzeige fortgesetzt

„Es ist wahrscheinlich, dass die Fähigkeiten von Sprachmodellen bald ein Niveau erreichen werden, auf dem anspruchsvolle Angriffe möglich werden.“

Denken Sie bis dahin daran, Ihre persönlichen Daten so sicher wie möglich aufzubewahren.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.