Seit fast einem Jahr haben sich Large Generative AI Models (LGAIMs) wie chatgpt in unserem täglichen Leben durchgesetzt. Die Fähigkeit des Modells, einen überzeugenden Dialog zu führen und hochwertige Texte zu produzieren, hat viele Fragen aufgeworfen, darunter die Frage, ob solche Modelle unabhängige Denkfähigkeiten besitzen, wer wen ausbildet (die Maschine oder wir), was aus Berufen wird, die stark auf Texten basieren usw die Angst, dass dies eine hochqualifizierte „BS“-Maschine ist.
Können menschliche Überlegungen und Schlussfolgerungen grundsätzlich durch künstliche Intelligenz ersetzt werden? Fünfzig Jahre nach dem Jom-Kippur-Krieg fragen wir uns: Wie könnte ChatGPT die damals verfügbaren Informationen für diesen und andere militärische Konflikte analysieren?
In einer kürzlich durchgeführten Vorstudie wollten wir die potenziellen Vorteile von LGAIMs bei der Simulation von Geheimdienstinformationen und ihren potenziellen Beitrag zu den Forschungsprozessen von Geheimdienstanalysten untersuchen, wie sie von den großen Militärs und Spionagediensten der westlichen Welt eingesetzt werden. Konkret führten wir drei Simulationsreihen auf der höchsten Ebene der Geheimdienstanalyse, dem strategischen nationalen Geheimdienst, durch, um die Fähigkeit der Maschine zu testen, als „Geheimdienstbewerter“ zu fungieren.
Dies ist die erste empirische Studie, die GPT im nachrichtendienstlichen Kontext verwendet. Wir gingen davon aus, dass wir auf drei mögliche Szenarien stoßen würden: Solche, in denen Maschinen Aufgaben besser (schneller und effizienter) erledigen; solche, bei denen Maschinen Funktionen weniger effektiv ausführen als Menschen; und solche, bei denen Maschinen Dinge anders machen als Menschen und so eine Ergänzung und nicht einen Ersatz für menschliche Fähigkeiten schaffen.
Die ersten Simulationen konzentrierten sich auf den japanischen Angriff auf Pearl Harbor im Jahr 1941, die zweite Serie drehte sich um den Jom-Kippur-Krieg zwischen Israel, Ägypten und Syrien im Oktober 1973 und die dritte Serie – eine reine Erfindung unserer Fantasie – bezog sich auf eine Oberfläche -Bodenrakete, die 2014 von Syrien aus auf Israel abgefeuert wurde. Jede Serie bestand aus etwa 10 Simulationen mit Anpassungen und Optimierungen, um verschiedene Eigenschaften jeder einzelnen zu testen, wie z. B. die Fähigkeit des Systems, mit irrelevanten Informationen („Rauschen“) umzugehen, und die Vertrautheit mit den Simulierten Ereignisse und generische Reaktionsmuster.
Wir haben die an den Simulationen beteiligten Länder und Organisationen nicht explizit erwähnt, um Verzerrungen aufgrund der Vorkenntnisse der Maschine über die tatsächlichen Ereignisse zu vermeiden. Stattdessen haben wir eine imaginäre Welt geschaffen, die die Komplexität der betreffenden Jahre widerspiegelte.
Die Simulationen begannen mit Primärdaten über diese fiktive Welt. Als in einer Reihe von Zeitschritten Rohdaten in die Maschine eingespeist wurden, wurden GPT Fragen zu den Informationen und den Erkenntnissen gestellt, die sie liefern könnten. Insgesamt übernahm GPT problemlos die Rolle eines „nationalen Geheimdienstbewerters“ und war in der Lage, eine Sprache und Terminologie zu verwenden, die denen von erfahrenem Geheimdienstpersonal ähnelte. Im Verlauf der Simulationen analysierte GPT Primärdaten, interpretierte die präsentierten Informationen, identifizierte Zusammenhänge zwischen Ereignissen, die zu unterschiedlichen Zeiten und an unterschiedlichen Orten stattfanden, und gab politische Empfehlungen ab.
Obwohl die Maschine nicht explizit für die Rolle eines Geheimdienstbewerters ausgebildet war und mit der ihr präsentierten Welt nicht vertraut war, waren ihre Fähigkeiten mit denen eines Analytikers mit mehrjähriger Erfahrung vergleichbar. Wir haben jedoch herausgefunden, dass der Hauptunterschied zwischen dem Denk- und Argumentationsprozess von GPT und dem des Menschen in seiner Fähigkeit liegt, Widersprüche zwischen Ideen und Informationen auf neutrale, nicht emotionale Weise zu erkennen.
Bei Vorlage widersprüchlicher Informationen und Expertenbewertungen konnte GPT Widersprüche erkennen. Als ihm beruhigende Informationen vorgelegt wurden, erkannte er, dass die Wahrscheinlichkeit eines Krieges selbst angesichts eines alarmistischen Expertenansatzes gesunken war.
Die von GPT auf der Grundlage der Informationen vom Vorabend von Jom Kippur 1973 gelieferte Interpretation war relativ alarmierend. Während des Dialogs wurde zwar nicht von „Krieg morgen“ gesprochen, die Wahrscheinlichkeit eines Krieges sei jedoch gestiegen, und es wurde empfohlen, sofortige Verteidigungsmaßnahmen zu ergreifen.
Auf den ersten Blick scheint es eine unkomplizierte Aufgabe zu sein, herauszufinden, wann bestimmte Informationen im Widerspruch zu einer bestimmten Möglichkeit oder Idee stehen. Der menschliche Bewertungsprozess ist jedoch von Natur aus subjektiv und kann zu voreingenommenem Denken führen, da der Mensch dazu neigt, sich eine „Konzeption“ zu bilden, die ihm die Realität erklärt. Dies kann dazu führen, dass Einzelpersonen Widersprüche verschleiern, was in der Vergangenheit zu fatalen Geheimdienstfehlern geführt hat. Die Fähigkeit von GPT, Widersprüche ohne diese Vorurteile zu erkennen, ist ein wesentlicher Vorteil.
Darüber hinaus kann GPT Daten anhand mehrerer „Konzeptionen“ oder Perspektiven untersuchen, während ein menschlicher Forscher möglicherweise mit emotionalen und kognitiven Einschränkungen zu kämpfen hat, wie dies sicherlich im Jom-Kippur-Krieg der Fall war. In jeder Simulation kann das System ein anderes Konzept ohne vorgefasste Meinungen testen und so Informationen mit unterschiedlichen und gegensätzlichen Hypothesen, Thesen oder Vorstellungen verarbeiten und analysieren. Dies macht es zu einem leistungsstarken Werkzeug zur Analyse von Daten und zur Identifizierung von Zusammenhängen zwischen Ereignissen, auch ohne Rückblick.
Die Herausforderung für die Zukunft besteht darin, zu verstehen, wie der Argumentationsmechanismus von GPT funktioniert und wie er die Verarbeitung natürlicher Sprache nutzt, um relevante Konzepte zu identifizieren. Dies ermöglicht es, Widersprüche und Inkonsistenzen innerhalb eines komplexen Systems zu erkennen. Die Verbesserung der Content-Expertise von GPT und die Bereitstellung des Zugriffs auf geheime Geheimdienstdaten in einer sicheren Umgebung sind weitere mögliche Verbesserungsmöglichkeiten.
Die Simulationen deckten einige potenzielle Bedenken hinsichtlich des Einsatzes von GPT im Geheimdienst auf. Erstens kann es sein, dass das System in vertrauten Mustern und Positionen „stecken bleibt“. Zweitens kann GPT aufgrund früherer „Erfahrungen“ oder fehlendem Kontext zu falschen Verbindungen führen. Dies kann seine Unabhängigkeit und Nützlichkeit gefährden.
Ein neues Werkzeug, kein Ersatz
Obwohl Technologie Unsicherheiten oder Überraschungen nicht beseitigen kann, kann sie Entscheidungsträgern dabei helfen, über die Zukunft nachzudenken. Prof. Joseph Nye von der Harvard University schrieb über den amerikanischen Geheimdienst: „Die Aufgabe besteht schließlich nicht so sehr darin, die Zukunft vorherzusagen, sondern vielmehr darin, politischen Entscheidungsträgern dabei zu helfen, über die Zukunft nachzudenken.“ Vielleicht hätte eine solche zusätzliche Stimme am Tisch die schrecklichen Folgen des Jom-Kippur-Krieges und Pearl Harbor verhindern können.
Wir werden nie wissen. Was wir mit Sicherheit sagen können, ist, dass die Simulationen zeigen, dass GPT über einzigartige Eigenschaften verfügt, die Geheimdienstexperten und Entscheidungsträgern beim Nachdenken über die Zukunft helfen können. Daher ist es wichtig, künstliche Intelligenz durchdacht in den Entscheidungsprozess von Geheimdiensten zu integrieren.
Dr. Tehilla Shwartz Altshuler ist Senior Fellow und Leiterin des Programms „Demokratie im Informationszeitalter“ am Israel Democracy Institute. Brigadegeneral. (im Ruhestand) Itai Brun ist ein ehemaliger Leiter der IDF Defense Intelligence Analysis Division.