Es ist nun mehr als ein Jahr her, seit chatgpt erstmals der Öffentlichkeit vorgestellt wurde, und seitdem ist das Interesse in der Cybercrime-Community nur noch gewachsen, heißt es in einem neuen Bericht von Kaspersky.
Es stellte sich heraus, dass Untergrundforen voller Diskussionen über ChatGPT und andere Large Language Models (LLM) sind und wie diese in Cyberkriminalitätskampagnen eingesetzt werden könnten. Tatsächlich sagten die Forscher, sie hätten fast 3.000 Beiträge zu diesem Thema identifiziert.
Der Höhepunkt der Diskussionen war im März 2023, was keine Überraschung ist, wenn man bedenkt, dass das Tool im November 2022 veröffentlicht wurde – laufende Diskussionen deuten jedoch auf ein „anhaltendes Interesse“ hin, sagte Kaspersky.
Verkauf gestohlener Konten
Besprechen Sie die Neuigkeiten mit Infosecurity-MagazinAlisa Kulishenko von Kaspersky sagte, dass Cyberkriminelle in diesen Forenthemen über alle Arten von Verwendungsmöglichkeiten sprechen, von der Verwendung des Tools zum Schreiben von Malware-Code bis hin zur Verarbeitung gestohlener Benutzerdaten, dem Parsen von Dateien von infizierten Geräten und vielem mehr. Außerdem diskutieren die Kriminellen alternative KI-Projekte wie XXXGPT oder FraudGPT. Sie sprechen auch über das Jailbreaking der Tools – mithilfe spezifischer Eingabeaufforderungen, die dabei helfen, zusätzliche Funktionen freizuschalten.
Schließlich versuchen Hacker immer, gestohlene ChatGPT-Konten entweder zu verkaufen oder zu kaufen. Das beliebte generative KI-Tool gibt es in einer kostenlosen und einer kommerziellen Version, wobei letztere deutlich mehr Funktionalität bietet. Kaspersky fand weitere 3.000 Posts, in denen solche Konten zum Verkauf angeboten wurden.
Seit der Einführung von ChatGPT gab es Bedenken, dass Kriminelle es missbrauchen könnten. Wie bei jeder anderen (neuen) Technologie haben Hacker Wege gefunden, sie in ihre Aktivitäten einzubinden.
Vor ChatGPT bestand beispielsweise eine der einfachsten Möglichkeiten, eine Phishing-E-Mail zu erkennen, darin, nach Rechtschreib- und Grammatikfehlern sowie Inkonsistenzen in der Sprache zu suchen, da viele Kriminelle ihren Englischkenntnissen nicht so viel Aufmerksamkeit schenkten. Mit ChatGPT sind Phishing-E-Mails in dieser Hinsicht nicht mehr von legitimen Nachrichten zu unterscheiden.