Zusätzlich zu den zuvor genannten Herausforderungen kann chatgpt keine benutzerdefinierten Pfade, Dateinamen, IP-Adressen oder Command-and-Control-Details (C&C) generieren, über die ein Benutzer die volle Kontrolle haben möchte. Obwohl es möglich ist, alle diese Variablen in der Eingabeaufforderung anzugeben, ist dieser Ansatz für komplexere Anwendungen nicht skalierbar.

Darüber hinaus hat sich ChatGPT 3.5 zwar als vielversprechend bei der Durchführung einer grundlegenden Verschleierung erwiesen, eine starke Verschleierung und Codeverschlüsselung sind jedoch für diese Modelle nicht gut geeignet. Maßgeschneiderte Techniken können für LLMs schwierig zu verstehen und umzusetzen sein, und die durch das Modell erzeugte Verschleierung kann nicht stark genug sein, um einer Erkennung zu entgehen. Darüber hinaus ist es ChatGPT nicht gestattet, Code zu verschlüsseln, da die Verschlüsselung häufig mit böswilligen Zwecken verbunden ist und dies nicht im Rahmen des Verwendungszwecks des Modells liegt.

Erkenntnisse aus Codegenerierungstests

Unsere Tests und Experimente mit den Codegenerierungsfunktionen von ChatGPT 3.5 haben einige interessante Ergebnisse erbracht. Wir haben die Fähigkeit des Modells, gebrauchsfertige Code-Snippets zu generieren, bewertet und ihre Erfolgsraten bei der Bereitstellung der angeforderten Ausgabe bewertet:

Codeänderung. Alle getesteten Codefragmente mussten geändert werden, um ordnungsgemäß ausgeführt zu werden. Diese Änderungen reichten von geringfügigen Optimierungen wie der Umbenennung von Pfaden, IPs und URLs bis hin zu erheblichen Änderungen, einschließlich der Änderung der Codelogik oder der Behebung von Fehlern.

Erfolg bei der Erzielung des gewünschten Ergebnisses. Rund 48 % der getesteten Code-Snippets lieferten nicht das, was angefordert wurde (42 % waren vollständig erfolgreich und 10 % waren teilweise erfolgreich). Dies verdeutlicht die aktuellen Einschränkungen des Modells bei der genauen Interpretation und Ausführung komplexer Codierungsanforderungen.

Siehe auch  Laut einer Studie steigert ChatGPT die Produktivität der Arbeitnehmer

Fehlerrate. Von allen getesteten Codes wiesen 43 % Fehler auf. Einige dieser Fehler traten auch in Codefragmenten auf, die erfolgreich die gewünschte Ausgabe lieferten. Dies könnte auf mögliche Probleme bei den Fehlerbehandlungsfunktionen des Modells oder der Codegenerierungslogik hinweisen.

Aufschlüsselung der MITRE-Techniken: Die MITRE Discovery-Techniken waren am erfolgreichsten (mit einer Erfolgsquote von 77 %), möglicherweise aufgrund ihrer weniger komplexen Natur oder einer besseren Ausrichtung auf die Trainingsdaten des Modells. Die Defense Evasion-Techniken waren am niedrigsten (mit einer Erfolgsquote von 20 %), was möglicherweise auf ihre Komplexität oder den Mangel an Trainingsdaten des Modells in diesen Bereichen zurückzuführen ist.

Obwohl das Modell in bestimmten Bereichen vielversprechend ist, beispielsweise bei Discovery-Techniken, hat es bei komplexeren Aufgaben Probleme. Dies deutet darauf hin, dass KI zwar bei der Codegenerierung helfen kann, die Überwachung und das Eingreifen des Menschen jedoch weiterhin von entscheidender Bedeutung sind. Zwar stehen Techniken zur Verfügung, um die Fähigkeiten von ChatGPT optimal zu nutzen und Benutzern dabei zu helfen, Einschränkungen bei der Generierung von Code-Snippets zu überwinden. Es ist jedoch wichtig zu beachten, dass es sich noch nicht um einen vollständig automatisierten Ansatz handelt und möglicherweise nicht für alle Anwendungsfälle skalierbar ist.

Abschließende Gedanken: Abwägen des Potenzials und der Fallstricke von ChatGPT bei der Generierung von KI-Malware

Obwohl KI-Technologien erhebliche Fortschritte bei der Automatisierung verschiedener Aufgaben gemacht haben, haben wir festgestellt, dass es immer noch nicht möglich ist, das LLM-Modell zur vollständigen Automatisierung des Malware-Erstellungsprozesses zu verwenden, ohne dass eine umfassende zeitnahe Entwicklung, Fehlerbehandlung, Feinabstimmung des Modells und menschliche Überwachung erforderlich sind. Und das, obwohl in diesem Jahr mehrere Berichte veröffentlicht wurden, die Konzeptnachweise für die Verwendung von ChatGPT zur automatisierten Erstellung von Malware vorlegen.

Siehe auch  ChatGPT/IA: Revolution, Nützlichkeit, Grenzen und Bedrohungen

Es ist jedoch wichtig zu beachten, dass diese LLM-Modelle die ersten Schritte zur Malware-Codierung vereinfachen können, insbesondere für diejenigen, die bereits den gesamten Malware-Erstellungsprozess verstehen. Diese Benutzerfreundlichkeit könnte den Prozess möglicherweise einem breiteren Publikum zugänglicher machen und den Prozess für erfahrene Malware-Programmierer beschleunigen.

Die Fähigkeit von Modellen wie ChatGPT 3.5, aus früheren Eingabeaufforderungen zu lernen und sich an Benutzerpräferenzen anzupassen, ist eine vielversprechende Entwicklung. Diese Anpassungsfähigkeit kann die Effizienz und Effektivität der Codegenerierung steigern und diese Tools in vielen legitimen Kontexten zu wertvollen Vermögenswerten machen. Darüber hinaus könnte die Fähigkeit dieser Modelle, Code zu bearbeiten und seine Signatur zu ändern, möglicherweise Hash-basierte Erkennungssysteme untergraben, obwohl Verhaltenserkennungssysteme wahrscheinlich immer noch erfolgreich sein würden.

Das Potenzial der KI, schnell einen großen Pool an Code-Snippets zu generieren, die zur Erstellung verschiedener Malware-Familien verwendet werden können und möglicherweise die Erkennungs-Umgehungsfähigkeiten von Malware verbessern können, ist eine besorgniserregende Aussicht. Die derzeitigen Einschränkungen dieser Modelle geben jedoch die Gewissheit, dass ein solcher Missbrauch noch nicht vollständig möglich ist.

Angesichts dieser Erkenntnisse und trotz seines immensen Potenzials ist ChatGPT immer noch begrenzt, wenn es um die vollautomatische Erstellung von Malware geht. Während wir diese Technologien weiterentwickeln und verfeinern, ist es von entscheidender Bedeutung, einen starken Fokus auf Sicherheit und ethische Nutzung zu legen, um sicherzustellen, dass sie als Werkzeuge zum Guten und nicht als Werkzeuge zum Schaden dienen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein