Die Versprechen und Gefahren fortschrittlicher Technologien der künstlichen Intelligenz wurden diese Woche unter gezeigt ein vom Pentagon organisiertes Konklave um den zukünftigen Einsatz künstlicher Intelligenz durch das Militär zu untersuchen. Regierungs- und Industrievertreter diskutierten darüber, wie Tools wie große Sprachmodelle (LLMs) eingesetzt werden könnten, um den strategischen Vorsprung der US-Regierung gegenüber Konkurrenten – insbesondere China – aufrechtzuerhalten.
Neben OpenAI gehörten auch Amazon und Microsoft zu den Unternehmen, die ihre Technologien vorführten.
Nicht alle angesprochenen Punkte waren positiv. Einige Redner mahnten zur Vorsicht beim Einsatz von Systemen, an deren vollständigem Verständnis die Forscher noch arbeiten.
„Es besteht die drohende Besorgnis über mögliche katastrophale Unfälle aufgrund von KI-Fehlfunktionen und das Risiko erheblicher Schäden durch gegnerische Angriffe auf KI“, sagte Oberstleutnant der südkoreanischen Armee, Kangmin Kim, auf dem Symposium. „Daher ist es von größter Bedeutung, dass wir KI-Waffensysteme bereits in der Entwicklungsphase sorgfältig bewerten.“
Er sagte den Pentagon-Beamten, dass sie sich mit der Frage der „Verantwortung bei Unfällen“ befassen müssten.
Craig Martell, Leiter des Chief Digital and Artificial Intelligence Office (CDAO) des Pentagons, sagte Reportern am Donnerstag, dass er sich solcher Bedenken bewusst sei.
„Ich würde sagen, wir übertreiben es zu schnell, wenn wir Dinge versenden, von denen wir nicht wissen, wie wir sie bewerten sollen“, sagte er. „Ich denke nicht, dass wir Dinge versenden sollten, von denen wir nicht wissen, wie wir sie bewerten sollen.“
Obwohl LLMs wie ChatGPT in der Öffentlichkeit als Chatbots bekannt sind, sagen Branchenexperten, dass das Chatten wahrscheinlich nicht für den Einsatz beim Militär geeignet ist. Sie werden eher dazu verwendet, Aufgaben zu erledigen, die von Menschen zu lange dauern oder zu kompliziert wären. Das bedeutet, dass sie wahrscheinlich von ausgebildeten Praktikern eingesetzt werden, die damit leistungsstarke Computer nutzen.
„Chat ist eine Sackgasse“, sagte Shyam Sankar, Chief Technology Officer von Palantir Technologies, einem Pentagon-Auftragnehmer. „Stattdessen stellen wir uns LLMs und Eingabeaufforderungen so vor, dass sie sich an Entwickler und nicht an Endbenutzer richten. … Es verändert, wofür man sie überhaupt verwenden würde.“
Im Hintergrund des Symposiums zeichnete sich der technologische Wettlauf der USA gegen China ab, der zunehmend an den Kalten Krieg erinnert. Forscher sagen, dass die Vereinigten Staaten in Sachen KI nach wie vor klar an der Spitze stehen, da Washington Pekings Fortschritte durch eine Reihe von Sanktionen behindert hat. US-Beamte befürchten jedoch, dass China möglicherweise bereits über ausreichende KI-Kenntnisse verfügt, um seine nachrichtendienstlichen und militärischen Fähigkeiten zu verbessern.
Die Führer des Pentagons zögerten, Chinas KI-Niveau zu diskutieren, als sie diese Woche mehrmals von Mitgliedern des Publikums gefragt wurden, aber einige der zu Reden eingeladenen Branchenexperten waren bereit, sich mit der Frage auseinanderzusetzen.
Alexandr Wang, CEO von Scale AI mit Sitz in San Francisco, das mit dem Pentagon im Bereich KI zusammenarbeitet, sagte am Donnerstag, dass China bei den LLMs noch vor wenigen Jahren weit hinter den Vereinigten Staaten zurückgeblieben sei, diese Lücke aber durch Milliarden von LLMs weitgehend geschlossen habe Dollar an Investitionen. Er sagte, dass die Vereinigten Staaten wohl bereit seien, an der Spitze zu bleiben, es sei denn, sie machten ungezwungene Fehler, wie z. B. nicht genügend Investitionen in KI-Anwendungen oder den Einsatz von LLMs in den falschen Szenarien.
„Dies ist ein Bereich, in dem wir, die Vereinigten Staaten, gewinnen sollten“, sagte Wang. „Wenn wir versuchen, die Technologie in Szenarien einzusetzen, in denen sie nicht einsatzbereit ist, werden wir scheitern. Wir werden uns selbst ins Bein schießen.“
Einige Forscher warnten vor der Versuchung, aufkommende KI-Anwendungen auf die Welt zu bringen, bevor sie fertig sind, nur aus Sorge, dass China aufholen könnte.
„Was wir sehen, sind Sorgen darüber, ins Hintertreffen zu geraten oder zurückzufallen. „Das ist die gleiche Dynamik, die die Entwicklung von Atomwaffen und später der Wasserstoffbombe vorangetrieben hat“, sagte Jon Wolfsthal, Direktor für globale Risiken bei der Federation of American Scientists, der nicht am Symposium teilnahm. „Vielleicht sind diese Dynamiken unvermeidbar, aber wir sind weder in der Regierung noch in der KI-Entwicklungsgemeinschaft ausreichend für diese Risiken sensibilisiert und berücksichtigen sie auch nicht bei Entscheidungen darüber, inwieweit wir diese neuen Fähigkeiten in einige unserer sensibelsten Systeme integrieren.“
Rachel Martin, Direktorin des Maven-Programms des Pentagons, das Drohnenüberwachungsvideos, hochauflösende Satellitenbilder und andere visuelle Informationen analysiert, sagte, dass Experten in ihrem Programm LLMs um Hilfe beim Durchsuchen von „Millionen bis Milliarden“ von Video- und Videoeinheiten bitten Foto – „Ein Ausmaß, das meiner Meinung nach im öffentlichen Sektor wahrscheinlich beispiellos ist.“ Das Maven-Programm wird von der National Geospatial-Intelligence Agency und CDAO betrieben.
Martin sagte, es bleibe unklar, ob kommerzielle LLMs, die auf öffentlichen Internetdaten trainiert wurden, am besten zu Mavens Arbeit passen würden.
„Es gibt einen großen Unterschied zwischen Bildern von Katzen im Internet und Satellitenbildern“, sagte sie. „Wir sind uns nicht sicher, inwieweit Modelle, die mit solchen Internetbildern trainiert wurden, für uns nützlich sein werden.“
Besonders groß war das Interesse an Knights Vortrag über ChatGPT. OpenAI hat Beschränkungen für militärische Anwendungen entfernt Nutzungsrichtlinie letzten Monat, und das Unternehmen hat begann mit der Defense Advanced Research Projects Agency des US-Verteidigungsministeriums zusammenzuarbeitenoder DARPA.
Laut Knight eignen sich LLMs gut für die Durchführung anspruchsvoller sprachübergreifender Forschung, die Identifizierung von Schwachstellen im Quellcode und die Suche nach der Nadel im Heuhaufen, die für Menschen zu mühsam wäre. „Sprachmodelle ermüden nicht“, sagte er. „Sie könnten das den ganzen Tag machen.“
Knight sagte auch, dass LLMs für „Desinformationsmaßnahmen“ nützlich sein könnten, indem sie Sockenpuppen oder gefälschte Social-Media-Konten generieren, die mit „einer Art Baseballkarten-Biografie einer Person“ gefüllt sind. Er stellte fest, dass dies eine zeitaufwändige Aufgabe sei, wenn sie von Menschen erledigt werde.
„Sobald Sie Sockenpuppen haben, können Sie simulieren, dass sie sich streiten“, sagte Knight und zeigte ein Modell von Phantom-Rechten und Linken, die eine Debatte führen.
US-Marinekapitän M.
„Wenn jemand nicht möchte, dass sein grundlegendes Modell vom Verteidigungsministerium genutzt wird, dann wird es das nicht tun“, sagte Lugo.
Das Büro, das das Symposium dieser Woche leitete, CDAO, war gegründet im Juni 2022 als das Pentagon vier Datenanalyse- und KI-bezogene Einheiten zusammenlegte. Margaret Palmieri, stellvertretende Leiterin des CDAO, sagte, die Zentralisierung der KI-Ressourcen in einem einzigen Büro spiegele das Interesse des Pentagons wider, nicht nur mit diesen Technologien zu experimentieren, sondern sie auch umfassend einzusetzen.
„Wir betrachten die Mission durch eine andere Linse, und diese Linse ist der Maßstab“, sagte sie.