Im Bereich der generativen KI zeichnet sich ein neuer Trend ab – generative KI für Cybersicherheit – und Google gehört zu denen, die im Erdgeschoss einsteigen wollen.
Auf der heutigen RSA-Konferenz 2023 hat Google angekündigt Cloud Security AI Workbench, eine Cybersicherheitssuite, die auf einem spezialisierten „Sicherheits“-KI-Sprachmodell namens Sec-PaLM basiert. Sec-PaLM, ein Ableger des PaLM-Modells von Google, ist „auf Sicherheitsanwendungsfälle abgestimmt“, sagt Google – und enthält Sicherheitsinformationen wie die Erforschung von Software-Schwachstellen, Malware, Bedrohungsindikatoren und Verhaltensprofilen von Bedrohungsakteuren.
Cloud Security AI Workbench umfasst eine Reihe neuer KI-gestützter Tools, wie die Threat Intelligence AI von Mandiant, die Sec-PaLM nutzen wird, um Sicherheitsbedrohungen zu finden, zusammenzufassen und darauf zu reagieren. (Erinnern Sie sich daran, dass Google Mandiant im Jahr 2022 für 5,4 Milliarden US-Dollar gekauft hat.) VirusTotal, ein weiteres Eigentum von Google, wird Sec-PaLM verwenden, um Abonnenten dabei zu helfen, das Verhalten bösartiger Skripte zu analysieren und zu erklären.
An anderer Stelle wird Sec-PaLM Kunden von Chronicle, dem Cloud-Cybersicherheitsdienst von Google, bei der Suche nach Sicherheitsereignissen und der „konservativen“ Interaktion mit den Ergebnissen unterstützen. Benutzer von Googles Security Command Center AI erhalten unterdessen „menschenlesbare“ Erklärungen der Angriffsgefährdung mit freundlicher Genehmigung von Sec-PaLM, einschließlich betroffener Assets, empfohlener Mindermaßnahmen und Risikozusammenfassungen für Sicherheits-, Compliance- und Datenschutzergebnisse.
„Während die generative KI in letzter Zeit die Fantasie beflügelt hat, basiert Sec-PaLM auf jahrelanger grundlegender KI-Forschung von Google und DeepMind und der umfassenden Expertise unserer Sicherheitsteams“, schrieb Google heute Morgen in einem Blogbeitrag. „Wir haben gerade erst begonnen, die Leistungsfähigkeit der Anwendung generativer KI auf die Sicherheit zu erkennen, und wir freuen uns darauf, dieses Fachwissen weiterhin für unsere Kunden zu nutzen und Fortschritte in der gesamten Sicherheitsgemeinschaft voranzutreiben.“
Das sind ziemlich ehrgeizige Ambitionen, insbesondere wenn man bedenkt, dass VirusTotal Code Insight, das erste Tool in der Cloud Security AI Workbench, derzeit nur in einer eingeschränkten Vorschau verfügbar ist. (Google sagt, dass es plant, den Rest der Angebote in den kommenden Monaten an „vertrauenswürdige Tester“ auszurollen.) Es ist ehrlich gesagt nicht klar, wie gut Sec-PaLM in der Praxis funktioniert – oder nicht funktioniert. Sicher, „empfohlene Risikominderungen und Risikozusammenfassungen“ klingen nützlich, aber sind die Vorschläge so viel besser oder präziser, weil sie von einem KI-Modell erstellt wurden?
Schließlich machen KI-Sprachmodelle – egal wie modern sie sind – Fehler. Und sie sind anfällig für Angriffe wie Prompt Injection, was dazu führen kann, dass sie sich auf eine Weise verhalten, die ihre Schöpfer nicht beabsichtigt haben.
Das hält die Tech-Giganten natürlich nicht auf. Im März brachte Microsoft Security Copilot auf den Markt, ein neues Tool, das darauf abzielt, Bedrohungsinformationen mithilfe generativer KI-Modelle von OpenAI, einschließlich GPT-4, „zusammenzufassen“ und „sinnvoll“ zu machen. In den Pressematerialien behauptete Microsoft – ähnlich wie Google –, dass generative KI Sicherheitsexperten besser für die Bekämpfung neuer Bedrohungen ausstatten würde.
Die Jury ist da sehr uneins. In Wahrheit könnte sich die generative KI für die Cybersicherheit als mehr Hype erweisen als alles andere – es gibt einen Mangel an Studien über ihre Wirksamkeit. Mit etwas Glück werden wir die Ergebnisse früh genug sehen, aber in der Zwischenzeit sollten Sie die Behauptungen von Google und Microsoft mit einem gesunden Körnchen Salz nehmen.