Forscher haben einen Computervirus entwickelt, der die Leistungsfähigkeit von chatgpt ausnutzen kann, um sich zunächst durch die Änderung seines eigenen Codes zu tarnen. Dann, in einer besonders hinterhältigen Wendung, verbreitet er sich, indem er sich an KI-generierte E-Mails anhängt, die klingen, als wären sie von Menschen geschrieben worden.

Als Neuer Wissenschaftler BerichteDer Informatikstudent der ETH Zürich David Zollikofer und der KI-Malware-Forscher Ben Zimmerman von der Ohio State University haben eine Computerdatei erstellt, die sich in Form eines E-Mail-Anhangs auf dem Computer eines Opfers verbreiten kann.

„Wir bitten ChatGPT, die Datei neu zu schreiben, wobei die semantische Struktur erhalten bleibt, aber die Benennung der Variablen und die Logik ein wenig geändert werden“, sagte Zollikofer Neuer Wissenschaftler.

Infolgedessen ist der „synthetische Krebs“, wie die Forscher das Virus nennen, durch Antiviren-Scans nicht einmal erkennbar und somit ein perfekt getarnter Eindringling.

Sobald sich der Virus auf dem System des Opfers etabliert hat, öffnet er Outlook und beginnt, kontextrelevante E-Mail-Antworten zu schreiben – wobei er sich selbst als scheinbar harmloser Anhang beifügt.

Dies ist ein erschreckendes Beispiel dafür, wie KI-Chatbots ausgenutzt werden können, um Malware effizient zu verbreiten. Schlimmer noch: Experten warnen, dass die Tools selbst sogar dazu beitragen könnten, dass Kriminelle noch schwerer zu erkennen sind.

„Unsere Einreichung umfasst einen funktionalen Minimalprototyp, der die Risiken hervorhebt, die LLMs für die Cybersicherheit darstellen, und die Notwendigkeit weiterer Forschungen zu intelligenter Malware unterstreicht“, schrieben die beiden in einem noch nicht begutachtetes Papier.

Die KI war in ihren Versuchen, E-Mail-Antworten mittels „Social Engineering“ zu manipulieren, erschreckend glaubwürdig.

Siehe auch  KI-Chatbots wie ChatGPT und Bard können „hypnotisiert“ werden, um Informationen preiszugeben oder schädliche Ratschläge zu geben

„Liebe Claire“, hieß es in einer Nachricht. „Ich freue mich wirklich, dass du an meiner 38. Geburtstagsfeier teilnehmen wirst. Deine Gesellschaft ist mir immer eine Freude und ich freue mich schon sehr auf unsere nostalgische Reise in die 80er Jahre.“

Der gefälschten E-Mail war eine ausführbare Datei namens „80s_Nostalgia_Playlist.exe“ angehängt, die beim Öffnen den Wurm installieren würde – vorausgesetzt, Claire sei „nicht besonders technisch versiert“, wie die Forscher in ihrem Artikel schrieben.

Interessanterweise kam ChatGPT jedoch manchmal hinter die schändlichen Absichten des Virus und weigerte sich, zu kooperieren.

Andere Forscher haben zuvor ChatGPT verwendet, um KI-„Würmer“ zu erstellen, die auf ähnliche Weise die E-Mails eines Opfers infiltrieren und auf Daten zugreifen können.

„Die Studie zeigt, dass Angreifer solche Eingabeaufforderungen in Eingaben einfügen können, die, wenn sie von GenAI-Modellen verarbeitet werden, das Modell dazu veranlassen, die Eingabe als Ausgabe zu replizieren (Replikation) und böswillige Aktivitäten durchzuführen (Nutzlast)“, so ein Forscherteam google.com/view/compromptmized“ class=“underline hover:text-futurism hover:no-underline transition-all duration-200 ease-in-out“ data-style=“text-decoration-color:blue“>schrieb in einer anderen Zeitung früher in diesem Jahr.

Für Experten sind Viren wie das von Zollikofer und Zimmerman entwickelte nur die Spitze des Eisbergs.

„Ich denke, wir sollten besorgt sein“, sagte Alan Woodward, Cybersicherheitsforscher an der University of Surrey, der nicht an der Forschung beteiligt war. Neuer Wissenschaftler. „Wir wissen bereits, dass LLMs auf verschiedene Weise missbraucht werden können. Das Erschreckende daran ist jedoch, dass die Techniken verbessert werden können, indem man die Technologie selbst um Hilfe bittet.“

„Ich persönlich glaube, dass wir gerade erst anfangen, das Potenzial zu erkennen, das darin besteht, dass LLMs für schändliche Zwecke missbraucht werden“, fügte er hinzu.

Siehe auch  Scarlett Johansson gewinnt eine KI-Kehrtwende, da OpenAI die neue ChatGPT-Stimme einführt, aber erwarten Sie nicht viel mehr

Zollikofer glaubt jedoch, dass nicht alles nur Untergang und Finsternis ist.

„Die Angriffsseite hat im Moment einige Vorteile, weil es dazu mehr Forschung gibt“, sagte er Neuer Wissenschaftler„Aber ich denke, man kann dasselbe auch über die Verteidigungsseite sagen: Wenn man diese Technologien in die Verteidigung einbaut, die man nutzt, kann man die Verteidigungsseite verbessern.“

Mehr zu KI-Würmern: Forscher entwickeln KI-gestützte Malware, die sich von selbst verbreitet

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein