Globale, vernetzte und digitale Kriegsführung
NATO-GIPFEL 2024 — Vor drei Jahren trafen sich die NATO-Staats- und Regierungschefs in Brüssel und verabschiedeten den erste Strategie für künstliche Intelligenzhatte der russische Präsident Wladimir Putin noch nicht versucht, Kiew mit einem Blitzkrieg zu erobern, und OpenAIs chatgpt hatte das Internet noch nicht im Sturm erobert. Heute, in einer ganz anderen Welt, als sich die NATO-Staats- und Regierungschefs in Washington trafen, um über die Bedrohung durch Moskau zu diskutieren, haben sie auch ausgegeben eine überarbeitete KI-Strategie, die dem neuen Phänomen der generativen KI höchste Priorität einräumt.
Das vollständige Dokument wurde noch nicht veröffentlicht. die offizielle Zusammenfassung Die heute veröffentlichten Informationen enthalten nur wenige Details. Eine bemerkenswerte Nuance ist jedoch, wie relativ optimistisch die Allianz in Bezug auf GenAI zu sein scheint.
Ja, es gibt einen wichtigen Absatz, der warnt: „Desinformation … und KI-gestützte Informationsoperationen könnten das Ergebnis von Wahlen beeinflussen, Zwietracht und Verwirrung im Bündnis säen, Gesellschaften und Militärs in Konfliktzeiten demobilisieren und demoralisieren sowie das Vertrauen in für das Bündnis wichtige Institutionen und Behörden schwächen.“ Dies ist definitiv eine detailliertere und düsterere Diskussion über Desinformation als die vergleichbare, aber kürzere und weniger dringliche Passage im Zusammenfassung 2021.
Doch die Revision von 2024 legt noch mehr Nachdruck darauf, die NATO-Staaten zu drängen, die Vorteile generativer Algorithmen zu nutzen. „Diese Technologien können komplexe Texte, Computercodes und realistische Bilder und Audiodaten in nahezu unbegrenzter Lautstärke erzeugen, die von von Menschen produzierten Inhalten kaum noch zu unterscheiden sind. Es ist für die NATO von entscheidender Bedeutung, diese Technologien, wo möglich, so schnell wie möglich einzusetzen.“
Wie die NATO GenAI einsetzen soll, bleibt unerwähnt, aber es gibt viele Präzedenzfälle in den USA, die Europa in dieser Hinsicht weit voraus sind. Das Verteidigungsministerium startete vor fast einem Jahr seine hochrangige Initiative, um GenAI in den Griff zu bekommen, die Task Force Lima. Die Geheimdienste begannen mit der Nutzung einer sicherer Microsoft-Chatbot Im Mai setzte die Air Force im Juni ihr NIGRGPT-Tool ein und die Army beabsichtigt, diesen Monat ihren eigenen sicheren genAI-Piloten einzuführen.
Große Sprachmodelle können menschliche Arbeitskräfte bei der Verarbeitung von Massen an hirnbetäubenden Details sinnvoll ersetzen oder zumindest unterstützen, sagte Linden Blue, CEO von Allgemeine AtomikErbauer der berühmten Drohnen Predator und Repear. „Es gibt so viele Dinge, wie zum Beispiel das Schreiben […] Bedienungsanleitungen, [which is] extrem mühsam und erfordert stundenlanges menschliches Durchsehen der Daten“, sagte Blue einem Handelskammerforum für die Industrie am Dienstag am Rande der NATO-Konferenz.
Im High-End-Bereich, so fuhr er fort, werde an künstlicher Intelligenz gearbeitet, um Signalaufklärung, Radarsignale und andere „extrem datenintensive“ Informationen zu analysieren: „Ich denke, das wird in Kürze zum Einsatz kommen und kommen“, sagte er.
Kurzfristig werden die US-amerikanischen Verteidigungs- und Geheimdienste ihren Schwerpunkt auf die Verwendung von Large Language Models legen, um riesige Mengen an Text – Verträge, Ausschreibungen, Logistikdaten und sogar militärische Geheimdienstberichte – zu verarbeiten und daraus verständliche Zusammenfassungen oder, in den ehrgeizigsten Fällen, Vorschläge für mögliche Pläne zu erstellen.
VERWANDTE THEMEN: SOCOM-Beschaffungschef sagt, KI werde „der Schlüssel zu allem“ sein
Sie haben ihr Personal auch davon abgehalten, öffentlich verfügbare Chatbots für Arbeitszwecke zu verwenden, und verweisen auf die Risiken von trügerisch plausiblen „Halluzinationen“ der KI, von absichtlich „vergifteten“ Daten und von datenhungrigen Entwicklern, die sensible Benutzerdaten absaugen, um neue Algorithmen zu trainieren. Es ist dieses Misstrauen gegenüber „wilden“ Chatbots, das das Pentagon dazu veranlasst hat, seine eigenen maßgeschneiderten und hoffentlich sichereren Modelle in „Käfigen“ zu entwickeln, wie der Chef der Task Force Lima, Navy Capt. M Javier Lugo, es gerne ausdrückt.
Ein weiterer Schwerpunkt der KI-Bemühungen des Pentagons im Allgemeinen, nicht nur bei GenAI, waren sorgfältige Tests, um sicherzustellen, dass die Algorithmen wie erwartet funktionieren. Realistische Tests sind bei Hardware schon schwierig genug, aber bei Algorithmen des maschinellen Lernens, die sich selbst modifizieren, wenn sie neue Daten aufnehmen, ist es noch schwieriger, oft auf eine Weise, die selbst für ihre ursprünglichen Programmierer undurchsichtig ist.
Die neue NATO-Strategie greift diese Idee auf und erweitert die kurzen Testvorschläge der Version von 2021 zu etwas viel Detaillierterem und Direktiverem. Die offizielle To-do-Liste in der Überarbeitung von 2024 fordert die NATO auf, „Schlüsselelemente einer allianzweiten KI-Test-, Evaluierungs-, Verifizierungs- und Validierungslandschaft (TEV&V) einzurichten, die die Einführung einer verantwortungsvollen KI unterstützen kann.“
Darüber hinaus heißt es in der Strategie weiter: „Diese Elemente Wille das Netzwerk der mit DIANA verbundenen Testzentren nutzen.“ (Hervorhebung hinzugefügt). Im Gegensatz dazu heißt es in der Version von 2021 – die vor dem offiziellen Start von DIANA erstellt wurde – lediglich: „Im Rahmen des bevorstehenden Defence Innovation Accelerator for the North Atlantic (DIANA) werden nationale KI-Testzentren könnte Unterstützen Sie die KI-Ambitionen der NATO.“ (Hervorhebung hinzugefügt).
„Die Testeinrichtungen der Alliierten müssen in der Lage sein, festzustellen, ob KI-Anwendungen sicher und in Übereinstimmung mit den PRUs der NATO eingesetzt werden können. [Principles of Responsible Use’,” the strategy also demands. These six NATO principles, adopted in 2021, strongly reflect the US Defense Department’s five AI ethics principles adopted the year before.
More recently the US Defense and State Departments have led an international push to systematize and institutionalize best practices. That’s a call to which NATO allies have been responsive, as shown by the continued emphasis on “responsible AI” in this revision of the AI strategy.
Breaking Defense’s Carley Welch contributed to this report.