Vor einigen Jahren unterstützte Jonathan Dambrot, ein Partner bei KPMG, Kunden bei der Bereitstellung und Entwicklung von KI-Systemen, als er begann, gewisse Lücken in Compliance und Sicherheit zu bemerken. Ihm zufolge konnte niemand erklären, ob ihre KI sicher war – oder wer dafür verantwortlich war.
„Grundsätzlich verstehen Datenwissenschaftler die Cybersicherheitsrisiken von KI nicht, und Cyberexperten verstehen Datenwissenschaft nicht so, wie sie andere Themen in der Technologie verstehen“, sagte Dambrot in einem E-Mail-Interview mit TechCrunch. „Ein stärkeres Bewusstsein für diese Risiken und Gesetze sind erforderlich, um sicherzustellen, dass diese Risiken angemessen angegangen werden und dass Organisationen Entscheidungen über sichere KI-Systeme treffen.“
Dambrots Wahrnehmung veranlasste ihn, KPMG Studio, den internen Beschleuniger von KPMG, zur Finanzierung und Inkubation eines Software-Startups vorzustellen, um die Herausforderungen rund um KI-Sicherheit und Compliance zu lösen. Zusammen mit zwei weiteren Mitbegründern, Felix Knoll (einem „Wachstumsführer“ bei KPMG Studio) und Paul Spicer (einem „Product Owner“ bei KPMG), und einem Team von etwa 25 Entwicklern und Datenwissenschaftlern hat Dambrot das Unternehmen ausgegliedert – Schädel.
Bis heute hat Cranium, das heute heimlich startet, 7 Millionen US-Dollar an Risikokapital von KPMG und SYN Ventures aufgebracht.
„Cranium wurde entwickelt, um KI-Systeme auf Client-Ebene zu entdecken und transparent zu machen, Sicherheitsberichte und -überwachung bereitzustellen und Compliance- und Lieferketten-Sichtbarkeitsberichte zu erstellen“, fuhr Dambrot fort. „Das Kernprodukt betrachtet die KI-Sicherheits- und Lieferkettenrisiken ganzheitlicher. Es versucht, Lücken in anderen Lösungen zu schließen, indem es eine bessere Sichtbarkeit von KI-Systemen bietet, Sicherheit in Bezug auf zentrale gegnerische Risiken bietet und Transparenz in der Lieferkette bietet.“
Zu diesem Zweck versucht Cranium, KI-Pipelines zu kartieren und ihre Sicherheit zu validieren, indem es auf Bedrohungen von außen überwacht. Welche Drohungen, fragen Sie? Das ist je nach Kunde unterschiedlich, sagt Dambrot. Aber einige der häufigeren beinhalten Poisoning (Kontamination der Daten, auf die eine KI trainiert ist) und textbasierte Angriffe (Täuschung der KI mit böswilligen Anweisungen).
Cranium behauptet, dass es diese Bedrohungen direkt angehen kann, wenn es in einer bestehenden Trainings- und Testumgebung für maschinelles Lernen arbeitet. Kunden können sowohl in der Entwicklung befindliche als auch bereitgestellte KI-Pipelines erfassen, einschließlich der zugehörigen Assets, die während des gesamten KI-Lebenszyklus beteiligt sind. Und sie können ein KI-Sicherheits-Framework einrichten, das ihren Sicherheits- und Data-Science-Teams eine Grundlage für den Aufbau eines Sicherheitsprogramms bietet.
„Unsere Absicht ist es, ein reichhaltiges Telemetrie-Repository zu haben und unsere KI-Modelle zu nutzen, um Risiken proaktiv in unserem gesamten Kundenstamm zu identifizieren“, sagte Dambrot. „Viele unserer Risiken werden in anderen Frameworks identifiziert. Wir wollen eine Quelle dieser Daten sein, da wir beginnen, eine größere eingebettete Basis zu sehen.“
Das ist viel versprechend – besonders in einer Zeit, in der täglich neue KI-Bedrohungen auftauchen. Und es ist nicht gerade ein brandneues Konzept. Mindestens ein anderes Startup, HiddenLayer, verspricht dies und verteidigt Modelle vor angeblichen Angriffen, ohne auf Rohdaten oder den Algorithmus eines Anbieters zugreifen zu müssen. Andere, wie Robust Intelligence, CalypsoAI und Troj.ai, bieten eine Reihe von Produkten an, die entwickelt wurden, um KI-Systeme robuster zu machen.
Cranium startet von hinten, ohne nennenswerte Kunden oder Einnahmen.
Der Elefant im Raum ist, dass es schwierig ist, reale Beispiele für Angriffe auf KI-Systeme zu finden. Die Forschung zu diesem Thema ist explodiert, mit mehr als 1.500 Artikeln zur KI-Sicherheit, die im Jahr 2019 auf der wissenschaftlichen Veröffentlichungsseite Arxiv.org veröffentlicht wurden, gegenüber 56 im Jahr 2016, so a lernen von Adversa. Aber es gibt wenig öffentliche Berichterstattung über Versuche von Hackern, zum Beispiel kommerzielle Gesichtserkennungssysteme anzugreifen – vorausgesetzt, solche Versuche finden überhaupt statt.
Für das, was es wert ist, glaubt SYN-Geschäftsführer Jay Leek, ein Investor in Cranium, dass die Robustheit der KI eine Zukunft hat. Es versteht sich von selbst, dass er das natürlich tun würde, da er an dem Unternehmen beteiligt ist. Dennoch in seinen eigenen Worten:
„Wir verfolgen den KI-Sicherheitsmarkt seit Jahren und hatten nie das Gefühl, dass das Timing richtig war“, sagte er TechCrunch per E-Mail. „Angesichts der jüngsten Aktivitäten darüber, wie KI die Welt verändern kann, startet Cranium jedoch mit idealen Marktbedingungen und einem idealen Zeitpunkt. Die Notwendigkeit, eine angemessene Governance rund um KI für Sicherheit, Integrität, Vorurteile und Missbrauch zu gewährleisten, war noch nie so wichtig in allen Branchen. Die Cranium-Plattform schafft Sicherheit und Vertrauen über den gesamten KI-Lebenszyklus hinweg und stellt sicher, dass Unternehmen die Vorteile erzielen, die sie sich von der KI erhoffen, während sie gleichzeitig unvorhergesehene Risiken abwehrt.“
Cranium beschäftigt derzeit rund 30 Vollzeitmitarbeiter. Geht man von einer Belebung des Geschäfts aus, rechnet sie zum Jahresende mit rund 40 bis 50.