Das GPT-4-Modell von OpenAI nutzt Cybersicherheitslücken erfolgreich aus – durchweg besser und schneller als menschliche Profis. Wissenschaftler behaupten, dass diese Fähigkeit eine neue Ergänzung zum Steuerhaus des KI-Modells ist, aber mit der Zeit wird sie nur noch besser.

Forscher der University of Illinois Urbana-Champaign (UIUC) haben kürzlich veröffentlicht ein Papier zu diesem Anwendungsfall, bei dem sie mehrere große Sprachmodelle (LLMs) im Bereich der Angriffe auf Sicherheitslücken gegeneinander antreten ließen. GPT-4 konnte 87 % der getesteten Schwachstellen erfolgreich angreifen, wenn eine Beschreibung des Exploits von CVE, der öffentlichen Datenbank für häufige Sicherheitsprobleme, erhalten wurde. Jedes andere getestete Sprachmodell (GPT-3.5, OpenHermes-2.5-Mistral-7B, Llama-2 Chat (70B) usw.) sowie speziell entwickelte Schwachstellenscanner konnten die bereitgestellten Schwachstellen nicht einmal erfolgreich ausnutzen.

Den LLMs wurden „Ein-Tages“-Schwachstellen (so genannt, weil sie gefährlich genug sind, um am Tag nach ihrer Entdeckung ein Patchen zu erfordern) zum Testen zugewiesen. Cybersicherheitsexperten und Exploit-Jäger haben ganze Karrieren darauf aufgebaut, Schwachstellen zu finden (und zu beheben). Sogenannte White-Hat-Hacker werden von Unternehmen als Penetrationstester angeheuert, um böswilligen Agenten zu entkommen, die nach Schwachstellen suchen, die sie ausnutzen können.

Zum Glück für die Menschheit konnte GPT-4 nur bekannte Schwachstellen angreifen – für die es die CVE-Beschreibung erhielt – und das LLM hatte nur eine Erfolgsquote von 7 %, wenn es darum ging, einen Fehler zu identifizieren und dann auszunutzen. Mit anderen Worten: Der Schlüssel zu einem Hacking-Weltuntergang ist (noch) nicht für jeden zugänglich, der eine gute Eingabeaufforderung für chatgpt schreiben kann. Dennoch ist GPT-4 nach wie vor besonders besorgniserregend, da es in der Lage ist, Schwachstellen nicht nur theoretisch zu verstehen, sondern mithilfe eines Automatisierungs-Frameworks auch tatsächlich die Schritte zur Durchführung von Exploits autonom durchzuführen.

Siehe auch  wie ChatGPT französischen Wikipedia-Mitwirkenden helfen kann

Und zum Unglück der Menschheit ist GPT-4 im Ausbeutungswettlauf bereits besser als Menschen. Unter der Annahme, dass ein Cybersicherheitsexperte 50 US-Dollar pro Stunde erhält, postuliert die Zeitung, dass er „einen LLM-Agenten einsetzt“. [to exploit security vulnerabilities] ist bereits 2,8-mal billiger als menschliche Arbeitskraft. LLM-Agenten sind im Gegensatz zu menschlicher Arbeit auch trivial skalierbar.“ Das Papier schätzt auch, dass zukünftige LLMs – wie das kommende GPT-5 – in diesen Fähigkeiten und vielleicht auch in Entdeckungsfähigkeiten nur noch stärker werden werden. Mit den enormen Auswirkungen der Vergangenheit Angesichts der Tatsache, dass Sicherheitslücken wie Spectre und Meltdown immer noch in den Köpfen der Tech-Welt lauern, ist dies ein ernüchternder Gedanke.

Während weiterhin mit der KI gespielt wird, wird sich die Welt weiterhin unwiderruflich verändern. OpenAI forderte die Autoren des Papiers ausdrücklich auf, die Eingabeaufforderungen, die sie für dieses Experiment verwendet haben, nicht öffentlich zu machen – die Autoren stimmten zu und sagten, dass sie die Eingabeaufforderungen nur „auf Anfrage“ zur Verfügung stellen würden.

Seien Sie vorsichtig, wenn Sie versuchen, dies (oder etwas anderes) auf ChatGPT für sich selbst zu reproduzieren, da KI-Abfragen eine enorme Belastung für die Umwelt darstellen: Eine einzelne ChatGPT-Anfrage kostet fast zehnmal mehr als eine google-Suche im Power-Modus. Wenn Sie mit diesem Energieunterschied vertraut sind und selbst mit LLMs arbeiten möchten, erfahren Sie hier, wie Enthusiasten KI-Chatbots auf ihren NAS ausgeführt haben.

5/5 - (169 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein