Die Ersteller des Sprachmodells haben Filter eingebaut, die dieses Verhalten verhindern sollten, aber wie sich herausstellte, sind sie leicht zu umgehen.

In den letzten Monaten haben Computersicherheitsexperten mehrere Beispiele für die Verwendung des chatgpt-Sprachmodells gezeigt, um Code zu schreiben, der Funktionen ausführt, die Malware innewohnen, wie etwa das Aufzeichnen von Tastenanschlägen oder das Ändern von Dynamic-Link-Bibliotheken. ChatGPT verfügt über integrierte Filter, die dieses Verhalten des Modells verhindern sollten, aber wie sich herausstellte, können sie mithilfe speziell formulierter Abfragen leicht umgangen werden.

Ein Beispiel für diese Verwendung von ChatGPT wurde von Jeff Sims, Principal Security Engineer bei HYAS InfoSec, bereitgestellt. Er nannte seine Entwicklung BlackMamba. Dies ist ein Python-Programm, das bei seiner Ausführung eine Anfrage an ChatGPT sendet, um eine Keylogger-Funktion (Aufzeichnung von Tastenanschlägen) zu erstellen, und dann den resultierenden Code mit der Standardfunktion exec() ausführt. ChatGPT kann viele Varianten einer Keylogger-Funktion erstellen und es ist für Antivirenprogramme schwierig, alle möglichen Änderungen zu verfolgen. Ein weiteres Beispiel mit einer ähnlichen Idee wurde von CyberArk-Spezialisten gezeigt. Ihr Programm fragt ChatGPT nach einer Funktion, die dynamisch eine DLL in den Windows Explorer-Prozess lädt.

Mit ChatGPT können polymorphe Viren erstellt werden

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein