OpenAI und Microsoft gaben am Mittwoch bekannt, dass sie OpenAI-Konten von „fünf staatsnahen böswilligen Akteuren“ mithilfe von KI-Tools, darunter chatgpt, zur Durchführung von Cyberangriffen gefunden und geschlossen haben.

Die geschlossenen Konten standen im Zusammenhang mit den mit China verbundenen Unternehmen Charcoal Typhoon (CHROMIUM) und Salmon Typhoon (SODIUM), dem mit dem Iran verbundenen Unternehmen Crimson Sandstorm (CURIUM), dem mit Nordkorea verbundenen Unternehmen Emerald Sleet (THALLIUM) und dem mit Russland verbundenen Unternehmen Forest Blizzard (STRONTIUM). entsprechend OpenAI Und Microsoft Threat Intelligence.

„Diese Akteure versuchten im Allgemeinen, OpenAI-Dienste zum Abfragen von Open-Source-Informationen, zum Übersetzen, zum Finden von Codierungsfehlern und zum Ausführen grundlegender Codierungsaufgaben zu nutzen“, sagte OpenAI in einer Erklärung. OpenAI sagte, seine „Ergebnisse zeigen, dass unsere Modelle nur begrenzte, inkrementelle Fähigkeiten für böswillige Cybersicherheitsaufgaben bieten.“

Forrest Blizzard, ein russischer Akteur des Militärgeheimdienstes, verwendete große Sprachmodelle (LLMs), um „verschiedene Satelliten- und Radartechnologien zu erforschen, die für konventionelle Militäreinsätze in der Ukraine relevant sein könnten“, sagte Microsoft, und um Aufgaben wie die Manipulation von Dateien zu unterstützen, „um potenziell zu automatisieren oder.“ technische Abläufe optimieren.“

Sowohl Charcoal Typhoon als auch Salmon Typhoon, die „in der Vergangenheit US-Verteidigungsunternehmen, Regierungsbehörden und Einrichtungen im Bereich der kryptografischen Technologie ins Visier genommen haben“, verwendeten LLMs, um Abfragen bei globalen Geheimdiensten und verschiedenen Unternehmen durchzuführen, Code zu generieren und Codierungsfehler zu identifizieren und Übersetzungsaufgaben.

Crimson Sandstorm, Emerald Sleet und beide mit China verbundenen Akteure nutzten die Tools von OpenAI, um Inhalte für Phishing-Kampagnen zu generieren, sagte OpenAI.

Siehe auch  Apple-Chef Tim Cook nutzt ChatGPT, ist aber auch vorsichtig

„Cyberkriminelle Gruppen, staatliche Bedrohungsakteure und andere Gegner erforschen und testen verschiedene KI-Technologien, sobald sie auftauchen, um den potenziellen Wert für ihre Abläufe und die Sicherheitskontrollen zu verstehen, die sie möglicherweise umgehen müssen“, sagte Microsoft.

Obwohl die Untersuchungen beider Unternehmen keine „signifikanten Angriffe“ von Akteuren ergaben, die streng überwachte Tools nutzen, legten OpenAI und Microsoft zusätzliche Ansätze vor, um die wachsenden Risiken von Bedrohungsakteuren zu mindern, die KI zur Ausführung ähnlicher Aufgaben nutzen.

Beide Unternehmen sagten, sie würden weiterhin Aktivitäten im Zusammenhang mit Bedrohungsakteuren überwachen und unterbinden, mit anderen Partnern in der Branche zusammenarbeiten, um Informationen über die bekannte Nutzung von KI durch böswillige Akteure auszutauschen und die Öffentlichkeit und Interessengruppen über die Nutzung ihrer KI-Tools durch böswillige Akteure zu informieren Schauspieler.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein