Der Chefbeauftragte für digitale und künstliche Intelligenz des Pentagon, Craig Martell, sagte, er sei alarmiert über das Potenzial generativer künstlicher Intelligenzsysteme wie chatgpt, zu täuschen und Desinformation zu verbreiten. Sein Vortrag über die Technologie auf der Hacker-Convention DefCon im August war ein großer Erfolg. Aber er ist alles andere als sauer auf zuverlässige KI.
Martell war kein Soldat, sondern ein Datenwissenschaftler. Er leitete maschinelles Lernen bei Unternehmen wie LinkedIn, Dropbox und Lyft, bevor er letztes Jahr den Job annahm.
VERWANDT
In einer zunehmend instabilen Welt, in der mehrere Länder um die Entwicklung tödlicher autonomer Waffen konkurrieren, ist es eine große Herausforderung, die Daten des US-Militärs zu verwalten und zu bestimmen, welche KI vertrauenswürdig genug ist, um sie in die Schlacht mitzunehmen.
Das Interview wurde aus Gründen der Länge und Klarheit bearbeitet.
—-
F: Was ist Ihre Hauptaufgabe?
A: Unsere Aufgabe ist es, Entscheidungsvorteile vom Sitzungssaal auf das Schlachtfeld zu übertragen. Ich sehe es nicht als unsere Aufgabe, ein paar bestimmte Aufgaben anzugehen, sondern vielmehr darin, die Tools, Prozesse, Infrastruktur und Richtlinien zu entwickeln, die es der Abteilung als Ganzes ermöglichen, zu skalieren.
F: Das Ziel ist also die globale Informationsdominanz? Was brauchen Sie, um erfolgreich zu sein?
A: Endlich kommen wir zur netzwerkzentrierten Kriegsführung – wie man die richtigen Daten zur richtigen Zeit an den richtigen Ort bringt. Es gibt eine Hierarchie der Bedürfnisse: Qualitätsdaten ganz unten, Analysen und Metriken in der Mitte, KI ganz oben. Damit dies funktioniert, sind qualitativ hochwertige Daten am wichtigsten.
F: Wie sollten wir über den Einsatz von KI in militärischen Anwendungen denken?
A: KI besteht eigentlich nur darin, die Vergangenheit zu zählen, um die Zukunft vorherzusagen. Ich glaube eigentlich nicht, dass die moderne KI-Welle anders ist.
China, Ukraine
F: Gewinnt China das KI-Wettrüsten?
A: Ich finde diese Metapher etwas fehlerhaft. Als wir ein nukleares Wettrüsten hatten, geschah dies mit einer monolithischen Technologie. KI ist das nicht. Es ist auch keine Büchse der Pandora. Dabei handelt es sich um eine Reihe von Technologien, die wir von Fall zu Fall anwenden und empirisch überprüfen, ob sie wirksam sind oder nicht.
F: Das US-Militär nutzt KI-Technologie, um die Ukraine zu unterstützen. Wie helfen Sie?
A: Unser Team engagiert sich ausschließlich in der Ukraine, um beim Aufbau einer Datenbank darüber zu helfen, wie Verbündete Hilfe leisten. Es heißt Skyblue. Wir helfen nur dabei, sicherzustellen, dass alles organisiert bleibt.
F: Es gibt viele Diskussionen über autonome tödliche Waffen – wie Angriffsdrohnen. Der Konsens besteht darin, dass Menschen letztendlich auf eine Aufsichtsrolle reduziert werden – sie können Missionen abbrechen, sich aber größtenteils nicht einmischen. Klingt richtig?
A: Beim Militär trainieren wir mit einer Technologie, bis wir ein berechtigtes Selbstvertrauen entwickeln. Wir kennen die Grenzen eines Systems und wissen, wann es funktioniert und wann nicht. Wie lässt sich das auf autonome Systeme übertragen? Nimm mein Auto. Ich vertraue dem adaptiven Tempomaten. Die Technik, die den Spurwechsel verhindern soll, ist hingegen furchtbar. Daher habe ich kein berechtigtes Vertrauen in dieses System und nutze es nicht. Übertragen Sie das auf das Militär.
„Loyaler Flügelmann“
F: Das in der Entwicklung befindliche „Loyal Wingman“-Programm der Luftwaffe sieht vor, dass Drohnen im Tandem mit von Menschen geflogenen Kampfjets fliegen. Ist das Computersehen gut genug, um Freund von Feind zu unterscheiden?
A: Computer Vision hat in den letzten 10 Jahren erstaunliche Fortschritte gemacht. Ob es in einer bestimmten Situation nützlich ist, ist eine empirische Frage. Wir müssen die Präzision ermitteln, die wir für den Anwendungsfall zu akzeptieren bereit sind, und anhand dieser Kriterien aufbauen – und testen. Wir können also nicht verallgemeinern. Ich würde mir wirklich wünschen, dass wir aufhören, über die Technologie als Monolithen zu reden, und stattdessen über die Fähigkeiten sprechen, die wir wollen.
F: Sie studieren derzeit generative KI und großsprachige Modelle. Wann könnte es im Verteidigungsministerium eingesetzt werden?
A: Die kommerziellen großsprachigen Modelle sind definitiv nicht gezwungen, die Wahrheit zu sagen, daher bin ich skeptisch. Allerdings untersuchen wir im Rahmen der Task Force Lima (gestartet im August) mehr als 160 Anwendungsfälle. Wir wollen entscheiden, was risikoarm und sicher ist. Ich lege hier keine offiziellen Richtlinien fest, aber lassen Sie uns Hypothesen aufstellen.
Ein geringes Risiko könnte so etwas wie die Erstellung erster Entwürfe in schriftlicher Form oder in Computercode sein. In solchen Fällen übernehmen Menschen die Bearbeitung oder, im Fall von Software, die Kompilierung. Es könnte möglicherweise auch für den Informationsabruf funktionieren – wo Fakten validiert werden können, um sicherzustellen, dass sie korrekt sind.
F: Eine große Herausforderung bei KI besteht darin, die Talente einzustellen und zu halten, die zum Testen und Bewerten von Systemen und zum Kennzeichnen von Daten erforderlich sind. KI-Datenwissenschaftler verdienen viel mehr als das, was das Pentagon traditionell bezahlt. Wie groß ist das Problem?
A: Das ist eine riesige Dose Würmer. Wir haben gerade ein digitales Talent-Management-Büro gegründet und denken intensiv darüber nach, wie wir ganz neue Stellen besetzen können. Müssen wir zum Beispiel wirklich Leute einstellen, die 20 bis 30 Jahre im Verteidigungsministerium bleiben möchten? Wahrscheinlich nicht.
Aber was wäre, wenn wir sie für drei oder vier bekommen könnten? Was wäre, wenn wir ihr College bezahlen würden und sie es uns mit drei oder vier Jahren zurückzahlen und dann mit dieser Erfahrung davonziehen und im Silicon Valley angestellt würden? So denken wir kreativ. Könnten wir beispielsweise Teil einer Diversity-Pipeline sein? Rekrutieren Sie an HBCUs (historisch schwarze Colleges und Universitäten)?