Ausweichende Hacker auf hoher Ebene nutzen aktiv eine ungepatchte Sicherheitslücke aus, die viele weit verbreitete KI-Systeme betrifft, darunter chatgpt, sagte ein Cybersicherheitsunternehmen am Dienstag.
Die Schwachstelle mit dem Namen „ShadowRay“ ist ein ungepatchter Fehler im „Ray AI“-Framework, das von Unternehmen wie OpenAI, Amazon, Uber, Netflix und anderen verwendet wird. Nach Angaben des Cybersicherheitsunternehmens Oligo nutzen Bedrohungsakteure diese Schwachstelle seit September 2023 aktiv aus.
Mit ShadowRay können Hacker auf sensible Daten und Rechenressourcen auf Servern zugreifen und so möglicherweise KI-Vorgänge manipulieren, geistiges Eigentum stehlen und Rechenleistung für das Kryptowährungs-Mining nutzen.
Dies sei „der erste bekannte Fall, dass KI-Workloads aktiv durch Schwachstellen in der modernen KI-Infrastruktur ausgenutzt werden“, sagte Oligo.
KI-Infrastruktur ist eine „Goldgrube für Angreifer“
Ray ist ein Open-Source-KI-Framework, das von Tausenden von Unternehmen weltweit in „Sektoren wie Bildung, Kryptowährung, Biopharma und mehr“ verwendet wird, sagte Oligo.
„Viele der [compromised] „Maschinen enthielten einen Befehlsverlauf, was es für Angreifer viel einfacher macht, zu verstehen, was sich auf der aktuellen Maschine befindet, und möglicherweise sensible Geheimnisse aus der Produktion preiszugeben, die in früheren Befehlen verwendet wurden“, enthüllte das Unternehmen in seinem Bericht Blogeintrag.
„Aufgrund der Streitigkeiten darüber, ob es sich um eine Sicherheitslücke handelte, tauchte ShadowRay (CVE-2023-48022) in mehreren Datenbanken nicht auf. Dadurch entstand ein blinder Fleck: Sicherheitsteams auf der ganzen Welt hatten keine Ahnung, dass sie gefährdet sein könnten.“
KI-Infrastrukturen sind ein Hauptziel für Cyberkriminelle, da sie über eine Fülle sensibler Daten und Rechenkapazitäten verfügen. KI-Umgebungen enthalten oft proprietäre Datensätze und Modelle – geistiges Eigentum, das Unternehmen im Wettbewerbsmarkt differenziert. Darüber hinaus sind diese Umgebungen mit Diensten Dritter und Unternehmensdatenbanken verknüpft, was sie zu einem Anlaufpunkt für skrupellose Akteure macht.
Obwohl Oligo die Angreifer nicht identifiziert hat, hieß es, sie seien wahrscheinlich Teil einer organisierten Hackergruppe, da ihre Methoden fortgeschrittene Umgehungstaktiken beinhalteten. „Allein auf der Grundlage der Cluster, die wir in den letzten Wochen beobachtet haben, kann der Gesamtwert der Maschinen und der Rechenleistung, die möglicherweise kompromittiert wurden, auf fast eine Milliarde US-Dollar geschätzt werden“, heißt es in dem Bericht.
Anyscale, das Unternehmen hinter dem Ray AI-Framework, hat stellte neue Tools zur Verfügung, um Benutzern zu helfen Überprüfen Sie die ordnungsgemäße Konfiguration ihrer Ray-Cluster und verhindern Sie eine versehentliche Exposition.
Oligo hat außerdem dringende Empfehlungen für Organisationen herausgegeben, die Ray und ähnliche KI-Frameworks verwenden. Oligo empfiehlt unter anderem:
- KI-Frameworks regelmäßig aktualisieren wie Ray und stellen sicher, dass alle Komponenten auf die neuesten Versionen gepatcht sind.
- Implementierung strenger Zugangskontrollen und Netzwerksicherheitsmaßnahmen, um KI-Systeme vor unbefugtem Zugriff zu schützen.
- Durchführung sofortiger Sicherheitsaudits um etwaige Schwachstellen zu erkennen.
- Nachfolgend Best Practices zur Sicherung von Ray.
Hinzu kommt, wir empfehlen Organisationen:
- Isolieren Sie kritische KI-Workloads in speziellen Umgebungen, um Risiken zu minimieren und den Zugriff auf sensible Infrastruktur zu kontrollieren.
- Bewerten Sie regelmäßig die Sicherheit und führen Sie Penetrationstests durch um Schwachstellen proaktiv zu identifizieren und zu beheben.
- Entwickeln und aktualisieren Sie regelmäßig Pläne zur Reaktion auf Vorfälle mit spezifischen Verfahren für KI Umweltverstöße.
Wir drängen auch Benutzer müssen bei unerwünschten Anfragen und verdächtigen Aktivitäten vorsichtig sein Dies könnte auf eine Sicherheitsverletzung hinweisen und diese sofort den IT- oder Sicherheitsteams melden. Trotz der Fortschritte bei den KI-Technologien bestehen weiterhin Sicherheitsbedenken.
„Mitarbeiter müssen sorgfältig darauf achten, dass keine sensiblen, geschützten, vertraulichen oder persönlichen Daten in ChatGPT eingegeben werden“, sagte Dan Lohrmann, CISO und Field Chief Information Security Officer bei Presidio, gegenüber VPNOverview im Jahr 2023 nach der Einführung von ChatGPT von OpenAI.
Tipps zur sicheren Nutzung von KI-Systemen finden Sie in unserem Leitfaden zu den Datenschutzrisiken von KI-Chatbots.
Für weitere Neuigkeiten folgen Sie uns auf X (Twitter), ThemenUnd Mastodon!