Lange vor dem Boom der generativen KI lieferte eine Firma aus dem Silicon Valley, die mit der Erfassung und Analyse nicht geheimer Daten zum illegalen chinesischen Fentanylhandel beauftragt worden war, überzeugende Argumente dafür, warum die US-Geheimdienste diese Technologie aufgreifen.
Die Ergebnisse der Operation übertrafen die einer rein menschlichen Analyse bei weitem. Es wurden doppelt so viele Unternehmen und 400 Prozent mehr Menschen entdeckt, die in den illegalen oder verdächtigen Handel mit dem tödlichen Opioid verwickelt waren.
Aufgeregte US-Geheimdienstmitarbeiter machten die Ergebnisse öffentlich bekannt – die KI habe Verbindungen hergestellt, die größtenteils auf Internet- und Darknet-Daten beruhten – und teilten sie den Behörden in Peking mit, um sie zu einem schärferen Vorgehen zu drängen.
Ein wichtiger Aspekt der Operation 2019, genannt Sable Spear, über die bisher nicht berichtet wurde: Das Unternehmen nutzte generative KI, um US-Behörden – drei Jahre vor der Veröffentlichung des bahnbrechenden Produkts chatgpt von OpenAI – mit Beweiszusammenfassungen für potenzielle Kriminalfälle zu versorgen und sparte so zahllose Arbeitsstunden.
„Ohne künstliche Intelligenz wäre das nicht möglich“, sagte Brian Drake, der damalige KI-Direktor der Defense Intelligence Agency und Projektkoordinator.
Der Vertragspartner Rhombus Power nutzte später generative KI, um für einen anderen US-Regierungskunden vier Monate im Voraus mit 80-prozentiger Sicherheit die groß angelegte Invasion Russlands in der Ukraine vorherzusagen. Rhombus sagt, dass es Regierungskunden, deren Namen es nicht nennen will, auch vor bevorstehenden nordkoreanischen Raketenstarts und chinesischen Weltraumoperationen warnt.
Die US-Geheimdienste versuchen mit aller Kraft, die KI-Revolution zu nutzen, denn sie befürchten, dass sie andernfalls durch das exponentielle Datenwachstum erdrückt würden, da die sensorgesteuerte Überwachungstechnologie den Planeten immer stärker überzieht.
Doch den Verantwortlichen ist durchaus bewusst, dass die Technologie noch jung und fragil ist und dass generative künstliche Intelligenz – also Vorhersagemodelle, die anhand riesiger Datensätze trainiert werden, um auf Abruf Texte, Bilder, Videos und menschenähnliche Konversationen zu generieren – alles andere als maßgeschneidert für ein gefährliches Geschäft voller Täuschungen ist.
Analysten benötigen „ausgefeilte Modelle der künstlichen Intelligenz, die riesige Mengen an Open-Source- und heimlich erworbenen Informationen verarbeiten können“, so CIA-Direktor William Burns. schrieb er kürzlich in Foreign Affairs. Aber das wird nicht einfach sein.
Nand Mulchandani, der erste Chief Technology Officer der CIA, glaubt, dass man KI-Modelle am besten wie einen „verrückten, betrunkenen Freund“ behandelt, weil sie „halluzinieren“ – sie sind zu großen Einsichten und Kreativität fähig, neigen aber auch zu Vorurteilen. Es gibt auch Sicherheits- und Datenschutzprobleme: Gegner könnten sie stehlen und vergiften, und sie könnten sensible persönliche Daten enthalten, die die Beamten nicht einsehen dürfen.
Dies bedeutet jedoch kein Ende der Experimente, die größtenteils im Geheimen stattfinden.
Eine Ausnahme: Tausende Analysten in den 18 US-Geheimdiensten Verwenden Sie eine von der CIA entwickelte KI Osiris genannt. Es läuft auf nicht klassifizierten und öffentlich oder kommerziell verfügbaren Daten – was als Open Source bezeichnet wird. Es schreibt kommentierte Zusammenfassungen und seine Chatbot-Funktion ermöglicht es Analysten, mit Abfragen tiefer zu gehen.
Mulchandani sagte, dass mehrere KI-Modelle von verschiedenen kommerziellen Anbietern zum Einsatz kommen, deren Namen er nicht nennen wollte. Er wollte auch nicht sagen, ob die CIA KI der neuen Generation für irgendetwas Wichtiges in geheimen Netzwerken einsetzt.
„Es ist noch früh“, sagte Mulchandani, „und unsere Analysten müssen mit absoluter Sicherheit feststellen können, woher die Informationen stammen.“ Die CIA probiert alle wichtigen KI-Modelle aus – und legt sich auf keins fest –, teilweise weil sich die KIs in ihren Fähigkeiten gegenseitig übertreffen, sagte er.
Mulchandani sagt, dass die KI vor allem als virtueller Assistent auf der Suche nach der „Nadel im Nadelöhr“ gut ist. Was sie jedoch niemals tun wird, so betonen die Verantwortlichen, ist, menschliche Analysten zu ersetzen.
Linda Weissgold, die im vergangenen Jahr als stellvertretende CIA-Analyseleiterin in den Ruhestand ging, glaubt, dass Kriegsspiele eine „Killer-App“ werden.
Während ihrer Amtszeit nutzte die Agentur bereits herkömmliche KI – Algorithmen und natürliche Sprachverarbeitung – für Übersetzungen und Aufgaben wie die Benachrichtigung von Analysten außerhalb der Arbeitszeiten über potenziell wichtige Entwicklungen. Die KI wäre nicht in der Lage zu beschreiben, was passiert ist – das wäre geheim –, könnte aber sagen: „Hier ist etwas, das Sie sich ansehen müssen.“
Man geht davon aus, dass die künstliche Intelligenz solche Prozesse verbessern wird.
Der größte Nutzen für Geheimdienste wird in der prädiktiven Analyse liegen, glaubt Anshu Roy, CEO von Rhombus Power. „Die Fähigkeit, vorherzusagen, was Ihre Gegner wahrscheinlich tun werden, wird wahrscheinlich einer der größten Paradigmenwechsel im gesamten Bereich der nationalen Sicherheit sein.“
Die KI-Maschine von Rhombus greift auf über 5.000 Datenströme in 250 Sprachen zurück, die über einen Zeitraum von über 10 Jahren gesammelt wurden, darunter globale Nachrichtenquellen, Satellitenbilder und Daten aus dem Cyberspace. Alles davon ist Open Source. „Wir können Menschen verfolgen, wir können Objekte verfolgen“, sagte Roy.
Zu den KI-Größen, die um die Geschäfte der US-Geheimdienste buhlen, zählt auch Microsoft. Das Unternehmen gab am 7. Mai bekannt, dass es OpenAIs GPT-4 für streng geheime Netzwerke anbietet. Für die Arbeit in geheimen Netzwerken muss das Produkt allerdings noch akkreditiert werden.
Ein Konkurrent, Primer AI, zählt zwei ungenannte Geheimdienste zu seinen Kunden – darunter auch Militärdienste, wie Dokumente zeigen, die online für kürzlich stattgefundene Militär-KI-Workshops veröffentlicht wurden. Primer bietet eine KI-gestützte Suche in 100 Sprachen an, um „aufkommende Signale für aktuelle Ereignisse“ von Quellen wie Twitter, Telegram, Reddit und Discord zu erkennen und „Schlüsselpersonen, Organisationen, Standorte“ zu identifizieren. Primer nennt als Zielpersonen Die beworbenen Einsatzmöglichkeiten der Technologie. In einem Demo auf einer Armeekonferenz nur wenige Tage nach dem Hamas-Anschlag vom 7. Oktober zu Israel beschrieben Unternehmensleiter, wie ihre Technologie in der Flut an Online-Informationen aus dem Nahen Osten Fakten von Fiktion trennt.
Die Führungskräfte von Primer lehnten ein Interview ab.
Kurzfristig ist es vielleicht weniger wichtig, wie US-Geheimdienste die KI einsetzen, als vielmehr, wie sie ihre Gegner davon abhalten können, die US-Verteidigung zu durchbrechen. Desinformation verbreiten und versuchen, Washingtons Fähigkeit zu untergraben, ihre Absichten und Fähigkeiten zu erkennen.
Und weil Silicon Valley diese Technologie vorantreibt, ist das Weiße Haus auch besorgt, dass alle von US-Behörden übernommenen KI-Modelle infiltriert und vergiftet werden könnten, was Untersuchungen zufolge google-openai-redteaming-1f4c8d874195c9ffcc2cdffa71e4f44b“ target=“_blank“ aria-label=“Go to https://apnews.com/article/ai-cybersecurity-malware-microsoft-google-openai-redteaming-1f4c8d874195c9ffcc2cdffa71e4f44b“ rel=“noopener“ class=“sc-65eb153f-0 gxOXYL“>eine große Bedrohung.
Eine weitere Sorge: Der Schutz der Privatsphäre von „US-Personen“, deren Daten möglicherweise in ein umfangreiches Sprachmodell eingebettet sind.
„Wenn Sie mit einem Forscher oder Entwickler sprechen, der ein Large-Language-Modell trainiert, und ihn fragen, ob es möglich ist, grundsätzlich eine einzelne Information aus einem LLM zu löschen und es dazu zu bringen, diese zu vergessen – und ob es dafür eine solide empirische Garantie gibt –, dann ist das nicht möglich“, sagte John Beieler, Leiter für künstliche Intelligenz im Büro des Direktors des Nationalen Geheimdienstes, in einem Interview.
Dies ist einer der Gründe, warum die Geheimdienste bei der Einführung künstlicher Intelligenz nicht im Modus „Schnell handeln und Dinge kaputt machen“ sind.
„Wir wollen nicht in einer Welt leben, in der wir schnell handeln und eines dieser Dinge einsetzen und dann in zwei oder drei Jahren feststellen, dass es Informationen oder Auswirkungen hat oder ein emergentes Verhalten zeigt, mit dem wir nicht gerechnet haben“, sagte Beieler.
Es besteht beispielsweise Anlass zur Sorge, wenn Regierungsbehörden beschließen, KI zur Erforschung der Technologie für Bio- und Cyberwaffen einzusetzen.
William Hartung, ein leitender Forscher am Quincy Institute for Responsible Statecraft, meint, Geheimdienste müssten KIs sorgfältig auf einen möglichen Missbrauch prüfen, damit es nicht zu unbeabsichtigten Konsequenzen wie rechtswidriger Überwachung oder einem Anstieg der Zahl ziviler Opfer in Konflikten käme.
„All dies geschieht vor dem Hintergrund wiederholter Fälle, in denen das Militär und die Geheimdienste „Wunderwaffen“ und revolutionäre Ansätze angepriesen haben – vom elektronischen Schlachtfeld in Vietnam über das Star Wars-Programm der 1980er Jahre bis hin zur „Revolution im Militärwesen in den 1990er und 2000er Jahren“ –, nur um dann festzustellen, dass diese nicht den Erwartungen entsprachen“, sagte er.
Regierungsvertreter betonen, dass sie für solche Bedenken empfänglich seien. Außerdem, sagen sie, würden KI-Missionen je nach beteiligter Behörde sehr unterschiedlich ausfallen. Es gibt keine Einheitslösung.
Nehmen wir zum Beispiel die National Security Agency. Sie fängt Kommunikation ab. Oder die National Geospatial-Intelligence Agency (NGA). Ihre Aufgabe besteht darin, jeden Zentimeter des Planeten zu sehen und zu verstehen. Dann gibt es noch Messung und Signatur-Inteldas von mehreren Behörden zur Verfolgung von Bedrohungen mithilfe physischer Sensoren eingesetzt wird.
Die Verstärkung solcher Missionen durch künstliche Intelligenz hat klare Priorität.
Im Dezember veröffentlichte die NGA eine Aufforderung zur Einreichung von Vorschlägen für eine völlig neue Art von generativem KI-Modell. Ziel ist es, die von Satelliten und vom Boden aus gesammelten Bilder zu nutzen, um mit einfachen Sprach- oder Textaufforderungen präzise georäumliche Informationen zu gewinnen. Gen-KI-Modelle kartieren keine Straßen und Eisenbahnen und „verstehen die Grundlagen der Geographie nicht“, sagte Mark Munsell, Innovationsdirektor der NGA, in einem Interview.
Munsell sagte bei einer April-Konferenz in Arlington, Virginia, wurde festgestellt, dass die US-Regierung derzeit nur etwa drei Prozent des Planeten modelliert und beschriftet hat.
Anwendungen der künstlichen Intelligenz sind auch bei Cyberkonflikten sehr sinnvoll, da Angreifer und Verteidiger in einem ständigen Kampf miteinander liegen und die Automatisierung bereits im Gange ist.
Doch ein Großteil der wichtigen Geheimdienstarbeit hat nichts mit Datenwissenschaft zu tun, sagt Zachery Tyson Brown, ein ehemaliger Geheimdienstoffizier des Militärs. Er glaubt, dass Geheimdienste eine Katastrophe heraufbeschwören, wenn sie KI der neuen Generation zu schnell oder zu vollständig übernehmen. Die Modelle denken nicht. Sie sagen nur voraus. Und ihre Entwickler können nicht vollständig erklären, wie sie funktionieren.
Also nicht das beste Mittel, um sich mit rivalisierenden Meistern der Täuschung zu messen.
„Die Analyse von Geheimdienstinformationen ähnelt eher dem alten Klischee, ein Puzzle zusammenzusetzen, nur dass ständig jemand anderes versucht, Ihre Teile zu stehlen, während er gleichzeitig Teile eines völlig anderen Puzzles auf den Stapel legt, mit dem Sie arbeiten“, sagte Brown. schrieb vor kurzem in einem internen CIA-Journal. Analysten arbeiten mit „unvollständigen, mehrdeutigen, oft widersprüchlichen Fragmenten unvollständiger, unzuverlässiger Informationen.“
Sie vertrauen in hohem Maße auf ihren Instinkt, ihre Kollegen und das Gedächtnis der Institution.
„Ich glaube nicht, dass KI in naher Zukunft Analysten ersetzen wird“, sagte Weissgold, der ehemalige stellvertretende Analysedirektor der CIA.
Manchmal müssen schnelle Entscheidungen über Leben und Tod auf der Grundlage unvollständiger Daten getroffen werden, und die KI-Modelle der aktuellen Generation sind noch zu undurchsichtig.
„Ich glaube nicht, dass es für einen Präsidenten jemals akzeptabel wäre“, sagte Weissgold, „dass die Geheimdienste eingreifen und sagen: ‚Ich weiß es nicht, die Blackbox hat es mir gerade gesagt.‘“