Mit halluzinierenden LLMs und BetrugGPT, der Cyberspace ist viel anfälliger geworden. Unternehmen und Einzelpersonen müssen auf die neuen Bedrohungen achten
Eine typische Spam-E-Mail, die möglicherweise einen Phishing-Hook im Hyperlink verbirgt, sieht aufgrund der serifenlosen Schriftarten, des fetten oder unterstrichenen Textes, des Amateur-Layouts, der Ausrufezeichen und der Sprache, die irritierend nicht muttersprachlich ist, oft spammig aus. Aber diese verändern sich alle.
Generative KI, unterstützt von große Sprachmodelle (LLMs) hat ein Fenster voller Möglichkeiten für Cyberkriminelle eröffnet. „Einerseits erleichtern diese Tools es nun den Leuten auf der defensiven Seite, Ideen zu entwickeln, wie sie ihre Umgebung schützen können, andererseits können die Angreifer sie auf die gleiche Weise nutzen, um Menschen ins Visier zu nehmen. Der wahrscheinlich häufigste Anwendungsfall ist das Verfassen sehr anspruchsvoller E-Mails für Phishing-Kampagnen“, sagt Jonas Walker, Director of Threat Intelligence bei FortiGuard Labs.
BetrugGPT und WurmGPT sind wie böse Zwillinge des überaus beliebten chatgpt. Diese beiden abonnementbasierten Black-Hat-Tools sind im Darkweb verfügbar. Sie helfen böswilligen Akteuren bei einer Reihe von Aufgaben – vom Schreiben einer Phishing-E-Mail über BEC-Angriffe (Business E-Mail Compromise) bis hin zum Schreiben von Malware, was ein seriöser GPT aufgrund der eingebauten Schutzmaßnahmen verweigert.
„Sie können zum Beispiel sagen, Ihr Ziel sei ein geschäftlicher E-Mail-Kompromittierungsangriff und Sie senden bitte eine E-Mail an einen Account Manager, in der Sie so tun, als ob sein eigener Chef ihn dringend anweist, eine Rechnung zu bezahlen“, sagt Walker. Sie sagen dem Tool also buchstäblich, was der eigentliche Zweck ist. Und das Tool versteht, wie erfolgreiche BEC-Angriffe aussehen, und wird wahrscheinlich eine E-Mail erstellen, die viel besser ist als die von jemandem, der keine Ahnung hat, wie ein BEC aussieht. „Es geht also viel schneller und professioneller und es ist für Leute auf der defensiven Seite viel schwieriger zu erkennen, dass es sich möglicherweise um einen böswilligen Angriff handelt“, sagt Walker.
Die LLMs von FraudGPT und WormGPT sind auf Dinge wie Malware, Ransomware und Phishing-E-Mails geschult. FraudGPT kann das Dark Web, in dem Datenspeicher mit persönlichen Daten von Personen gehostet werden, durchforsten und schnell wiederhergestellt werden. „Black-Hat-GenAI-Tools können die für die Durchführung eines Angriffs erforderliche Aufklärungszeit erheblich verkürzen“, sagt er Zubair Chowgale, Senior Technical Consultant (APMEA) bei Securonix. „Bei Cyberangriffen handelt es sich bei APTs oder Advanced Persistent Threats um böswillige Akteure, die sich typischerweise über längere Zeiträume unentdeckt in der Umgebung des Opfers aufhalten und schließlich ihr Endziel erreichen. Ihr Zeitfenster ist gerade kleiner geworden“, sagt er.
Wechseln Sie zu intern ausgebildeten LLMs
Black-Hat-GPT-Tools sind nur ein Teil der größeren Cybersicherheitskomplexität, die von GenAI geschaffen wird. Der andere Teil umfasst Herausforderungen, die durch den unkontrollierten Einsatz von GenAI-Tools, insbesondere für Arbeitszwecke, entstehen, und den Ansatz, den Unternehmen beim Aufbau von LLMs verfolgen. Dass Samsung seinen Mitarbeitern die Nutzung von ChatGPT verbietet, nachdem einige von ihnen Teile des Quellcodes und die Details einiger Besprechungen mit der Anwendung geteilt haben, ist nun Teil der KI-Fabel. Unternehmen kommen bei der Einführung von GenAI-Tools mit Open-Source-LLMs für ihre Mitarbeiter nur langsam voran. „Die größte Sorge, die wir von vielen unserer Kunden und potenziellen Kunden hören, ist, wie wir sicherstellen können, dass wir eine Richtlinie durchsetzen können, die verhindert, dass Daten über ein GPT nach außen gelangen.“ Wir haben also eine Anwendung, mit der ein Unternehmen eine Richtlinie durchsetzen kann, die besagt: „John darf GPT verwenden, Barry leider nicht.“ Es macht keinen Sinn, etwas nur um der Nutzung willen zu nutzen, denn das könnte potenziell Probleme verursachen“, sagt Sean Duca, regionaler Chief Security Officer bei Palo Alto Networks.
Durch GenAI hervorgerufene Halluzinationen stellen ebenfalls ein großes Problem für die Anwendungssicherheit und Fehlinformationen dar. Vieles davon lässt sich auf die Daten zurückführen, auf denen die LLMs trainiert werden. „Es läuft darauf hinaus, Müll rein, Müll raus. Die Qualität der Kuratierung der Daten, die Sie in diese Modelle einspeisen, wirkt sich auf die Ausgabe aus“, sagt Duca.
Walker sagt, wenn Unternehmen LLMs mit „vergifteten Daten“ schulen, werden sie ein großes Problem haben, weil alle Antworten, die sie geben, auf dem falschen Datensatz basieren. „Gute Daten sind daher für LLMs von entscheidender Bedeutung, und ich denke, dass viele Leute anfangen werden, intern geschulte LLMs zu nutzen, damit sie eine bessere Kontrolle haben. Wenn Sie es einfach von jemand anderem verwenden, wissen Sie nicht wirklich, was sie hinter den Kulissen tun“, fügt er hinzu.
Anzeige