Berichten zufolge experimentiert die US-Armee mit einem neuen Militärspiel, um zu testen, ob Modelle mit künstlicher Intelligenz (KI) das Potenzial haben, die Schlachtplanung zu verbessern. Laut einem Bericht der Neuer WissenschaftlerDas United States Army Research Laboratory nutzt für diesen Test die von Microsoft unterstützten generativen KI-Lösungen von OpenAI, die kommerzielle Chatbots unterstützen. Um die Effizienz dieser KI-Assistenten zu überprüfen, setzten Forscher der US-Armee KI-Chatbots in dem militärischen Science-Fiction-Videospiel ein Starcraft II um zu testen, wie es in einer Kriegsspielsimulation funktioniert. Es ist auch wichtig anzumerken, dass die US-Armee bereits KI-Technologien erforscht hat, um Bilder von Schlachtfeldern zu analysieren und sogar Ziele für Luftangriffe zu identifizieren.
Wie die US-Armee KI-Assistenten in einem Kriegsspiel einsetzte: Bei dem Experiment legten die Armeeforscher den Schwerpunkt auf ein einfaches Szenario, das eine kleine Anzahl militärischer Einheiten und umfassende Kenntnisse des Schlachtfelds umfasste.
Forscher nutzten KI-Chatbots, um als Assistent eines Militärkommandanten Rollenspiele zu spielen. Dazu testeten sie die kommerziell erhältlichen OpenAI-Modelle GPT-4 Turbo und GPT-4 Vision (die ebenfalls sowohl Text- als auch Bildinformationen verarbeiten können) sowie zwei weitere KI-Agenten, die auf älterer Technologie basieren.
Die Chatbots konnten Informationen über das simulierte Schlachtfeldgelände sowie Details zu befreundeten und feindlichen Streitkräften bereitstellen. Die KI-Chatbots boten auch militärische Lektionen zum Angreifen und Verteidigen an. Später gaben die Forscher jedem KI-Assistenten den Auftrag, alle feindlichen Streitkräfte zu vernichten und einen Zielpunkt zu erobern.
Jeder KI-Assistent reagierte außerdem innerhalb von Sekunden, indem er mehrere Handlungsoptionen vorschlug. Eine Person, die als Kommandant spielte, konnte die KI bitten, diese Vorschläge zu verfeinern, bevor sie endgültige Befehle genehmigte. Zum Beispiel dafür sorgen, dass verbündete Einheiten die Kontrolle über eine bestimmte Brücke übernehmen.
Der Bericht ergab, dass KI-Assistenten, die auf den GPT-Modellen von OpenAI basieren, die beiden anderen KI-Agenten übertrafen. Allerdings waren sie nicht perfekt, da sie beim Erreichen der Missionsziele mehr Verluste erlitten als die anderen KI-Agenten.
Ende des Artikels
Anzeige