Die Technologiegiganten Microsoft und OpenAI haben aufgedeckt, wie Hacker fortschrittliche Sprachmodelle wie chatgpt nutzen, um ihre Cyberangriffe zu verfeinern und zu verstärken. Jüngste gemeinsam von Microsoft und OpenAI durchgeführte Untersuchungen haben alarmierende Versuche von mit Russland, Nordkorea, Iran und China verbundenen Gruppen aufgedeckt, Tools wie ChatGPT zur Aufklärung, Skriptverbesserung und zur Entwicklung ausgefeilter Social-Engineering-Taktiken zu nutzen.
In einem heute veröffentlichten Blogbeitrag betonte Microsoft: „Cyberkriminelle Syndikate, staatlich geförderte Bedrohungsakteure und andere Gegner erforschen aktiv die potenziellen Anwendungen neuer KI-Technologien, um ihre Abläufe zu stärken und Sicherheitsmaßnahmen zu umgehen.“
Es wurde festgestellt, dass die berüchtigte Strontium-Gruppe, die mit dem russischen Militärgeheimdienst verbunden ist und auch als APT28 oder Fancy Bear bekannt ist, Sprachmodelle (LLMs) verwendet, um Satellitenkommunikationsprotokolle, Radarbildgebungstechnologien und komplizierte technische Parameter zu analysieren. Diese Gruppe, die für ihre Beteiligung an früheren aufsehenerregenden Cybervorfällen berüchtigt ist, darunter auch gegen Hillary Clintons Präsidentschaftswahlkampf im Jahr 2016, hat ihre schändlichen Aktivitäten ausgeweitet und umfasst nun grundlegende Skriptaufgaben, die durch LLMs erleichtert werden, wie etwa Dateimanipulation und Datenauswahl.
Unterdessen setzt ein nordkoreanisches Hacking-Unternehmen namens Thallium LLMs ein, um öffentlich gemeldete Schwachstellen aufzuspüren, Phishing-Kampagnen zu orchestrieren und ihre bösartigen Skripte zu verfeinern. In ähnlicher Weise hat sich die iranische Gruppe Curium an LLMs gewandt, um raffinierte Phishing-E-Mails und -Codes zu erstellen, die darauf abzielen, der Erkennung durch Antivirensoftware zu entgehen. Darüber hinaus nutzen chinesische staatsnahe Hacker LLMs für verschiedene Zwecke, darunter Forschung, Skripterstellung, Übersetzungen und die Verbesserung bestehender Cyber-Tools.
Obwohl bisher keine größeren Cyberangriffe unter Einsatz von LLMs stattgefunden haben, sind Microsoft und OpenAI wachsam geblieben und haben Konten und Vermögenswerte, die mit diesen bösartigen Gruppen in Verbindung stehen, demontiert. Microsoft betonte: „Diese Studie dient als entscheidende Darstellung der ersten, inkrementellen Schritte, die von bekannten Bedrohungsakteuren beobachtet wurden, und liefert gleichzeitig Einblicke in unsere proaktiven Maßnahmen, um sie zusammen mit der Verteidiger-Community zu vereiteln und zu bekämpfen.“
Angesichts der zunehmenden Besorgnis über den möglichen Missbrauch von KI in der Cyberkriegsführung hat Microsoft Warnungen vor zukünftigen Bedrohungen herausgegeben, wie z. B. Stimmmissbrauch. Das Aufkommen von KI-gestütztem Betrug, insbesondere bei der Sprachsynthese, stellt ein erhebliches Risiko dar, da selbst kurze Sprachproben zur Herstellung überzeugender Nachahmungen verwendet werden können.
Als Reaktion auf die zunehmenden KI-gesteuerten Cyberbedrohungen nutzt Microsoft KI als Verteidigungsinstrument. „KI bietet Gegnern die Möglichkeit, die Komplexität ihrer Angriffe zu steigern, aber wir sind gerüstet, um diese Bedrohung zu bekämpfen“, bestätigt Homa Hayatyfar, Principal Detection Analytics Manager bei Microsoft. „Mit über 300 Bedrohungsakteuren unter unserem Radar nutzen wir KI, um unsere Schutzmaßnahmen zu verstärken, die Erkennungsfähigkeiten zu verbessern und schnell auf neue Bedrohungen zu reagieren.“
Um Cybersicherheitsexperten in diesem anhaltenden Kampf zu unterstützen, führt Microsoft den Security Copilot ein, einen KI-gesteuerten Assistenten, der darauf zugeschnitten ist, die Identifizierung und Analyse von Sicherheitsverletzungen inmitten der Flut von Cybersicherheitsdaten zu optimieren. Darüber hinaus führt der Technologieriese nach den jüngsten Sicherheitsverletzungen in der Azure-Cloud und Spionagevorfällen russischer Hacker gegen Microsoft-Führungskräfte umfassende Überarbeitungen der Softwaresicherheit durch.