Hacker des russischen Militärgeheimdienstes nutzen künstliche Intelligenz, um Cyberangriffe zu verbessern. Sie nutzen KI auch, um Technologie zu studieren.
Eine mit dem russischen Geheimdienst verbundene Hackergruppe nutzt große Sprachmodelle für künstliche Intelligenz (LLMs) wie chatgpt und Copilot, um komplexe Systeme zu erlernen und die Wirksamkeit von Cyberangriffen zu verbessern. Dies ist in angegeben Untersuchung Microsoft und OpenAI zum böswilligen Einsatz von KI. Ihre Forschung beleuchtet auch nordkoreanische, iranische, chinesische und andere Hacker.
Ein kurzer Auszug aus einer umfangreichen Untersuchung enthüllt die Art des Einsatzes von KI durch russische Militärhacker der Gruppe Forest Blizzard (Strontium). Hierbei handelt es sich um eine mit der GRU-Einheit 26165 verbundene russische Militärgeheimdienstgruppe, die an Angriffen auf Opfer von taktischem oder strategischem Interesse für die russische Regierung beteiligt war. Ihre Aktivitäten umfassen eine Vielzahl von Sektoren, darunter Verteidigung, Transport/Logistik, Regierung, Energie, Nichtregierungsorganisationen und Informationstechnologie. Forest Blizzard war eine äußerst aktive Gruppe bei der Bekämpfung von Organisationen, die mit Russlands Krieg in der Ukraine in Verbindung stehen.
Microsoft ist davon überzeugt, dass die Operationen von Forest Blizzard sowohl in der Ukraine als auch insgesamt eine wichtige unterstützende Rolle für die Außenpolitik und die militärischen Ziele Russlands spielen. Forest Blizzard wird mit Bedrohungen in Verbindung gebracht, die andere Forscher als APT28 und Fancy Bear identifiziert haben.
Der Einsatz des LLM durch Forest Blizzard umfasste die Erforschung verschiedener Satelliten- und Radartechnologien, die für militärische Operationen in der Ukraine relevant sein könnten, sowie allgemeine Forschung zur Unterstützung von Cyberoperationen.
Microsoft hat die Aktivitäten von Forest Blizzard bei der Nutzung neuer Technologien beobachtet und alle verfügbaren Konten und Aktivitäten im Zusammenhang mit Forest Blizzard deaktiviert.
Generell schätzt Microsoft den Einsatz von KI bei Cyberangriffen als begrenzt ein, neben der Analyse von Daten und der Verbesserung von Cyberspionagemethoden betont das Unternehmen aber auch die Gefahren anderer Methoden, die dank künstlicher Intelligenz verfügbar sind, etwa die Stimmimitation. Das Unternehmen weist darauf hin, dass sogar eine 3-sekündige Sprachprobe verwendet werden kann, um die Wiedergabe beliebiger Inhalte zu simulieren. Wir möchten Sie daran erinnern, dass Angreifer kürzlich mithilfe von KI 25 Millionen US-Dollar gestohlen haben.