[ad_1]

Luftkrieg, Alle Bereiche, Netzwerke / Cyber

Luftwaffenminister Kendall Spricht Im National Press Club

Luftwaffenminister Frank Kendall. (Foto von Drew Angerer/Getty Images)

WASHINGTON – Luftwaffenminister Frank Kendall sagte heute, er habe den wissenschaftlichen Beirat des Dienstes gebeten, rasch eine Studie über die möglichen Auswirkungen „generativer“ künstlicher Intelligenz, wie etwa des immer beliebter werdenden KI-Programms chatgpt, in die Wege zu leiten.

„Ich habe meinen wissenschaftlichen Beirat gebeten, mit KI wirklich zwei Dinge zu tun. Eine bestand darin, einen Blick auf die generativen KI-Technologien wie ChatGPT zu werfen und über deren militärische Anwendungen nachzudenken, um ein kleines Team zusammenzustellen, das dies ziemlich schnell erledigt“, sagte er während eines Online-Interviews mit dem Center for a New American Security ( CNAS). „Aber auch, um eine dauerhaftere, auf KI fokussierte Gruppe zusammenzustellen, die sich die Sammlung von KI-Technologien ansieht, zitiert und wieder aufhebt und uns dabei hilft, sie zu verstehen und herauszufinden, wie wir sie so schnell wie möglich einführen können.“

Die Tafel traf sich am 15. Juni um den Fortschritt in seinem zu betrachten laufende Studien, soll nächsten Monat abgeschlossen werden.

Kendall betonte, dass ChatGPT und andere generative künstliche Intelligenzsysteme, die völlig neue Texte, Codes oder Bilder erstellen können, anstatt nur vorhandene zu kategorisieren und hervorzuheben, derzeit noch nicht für die Hauptsendezeit bereit sind.

„Ich glaube bisher, dass diese Art von KI für das Militär nur von begrenztem Nutzen ist. Ich schaue, und wir schauen alle, oder? Aber was macht ChatGPT, wenn es Dokumente für Sie schreibt? [It] „Es ist nicht zuverlässig, was die Wahrhaftigkeit dessen angeht, was es produziert“, sagte er. „Wir haben noch einen langen Weg vor uns, bevor wir uns beispielsweise bei der Ausführung von Betriebsaufträgen auf solche Tools verlassen können.“

Siehe auch  Microsoft injiziert ChatGPT in die „sichere“ Azure-Cloud der US-Regierung • The Register

Ehemalige KI-Offiziere im Pentagon äußerten zuvor gegenüber Breaking Defense ihre Besorgnis über generative KI, insbesondere über die Neigung der aktuellen Technologie, Informationen zu „halluzinieren“. Und im Mai sagte Craig Martell, Chief Officer des Pentagon für Digital und KI, auch er habe „zu Tode Angst“ vor dem Potenzial der KI, für äußerst wirksame Desinformation eingesetzt zu werden.

Nichtsdestotrotz, so Kendall, „besteht, wenn man so will, Potenzial für Unterstützung bei einigen unserer Aufgaben.“

Zum größten Teil konzentriert sich das Interesse des Verteidigungsministeriums an KI jedoch auf Dinge wie „Mustererkennung, Zielerfassung, Sortieren durch viele Geheimdienstfunktionen, bei denen neuronale Netze und maschinelles Lernen … sehr hilfreich sein können“, erklärte er. „Was wir jetzt als KI bezeichnen, sind viel höhere Verarbeitungsgeschwindigkeiten und viel mehr Daten, die verarbeitet werden können. Es handelt sich also eher um einen schrittweisen Fortschritt in der Technologie, als die Leute oft anerkennen, aber es hat revolutionäres Potenzial in Bezug auf die Möglichkeiten, die es bietet.“

Kendall betonte, dass solche KI-Tools zur Unterstützung der Entscheidungsfindung bereits in der kommerziellen Welt eingesetzt werden – und unweigerlich Einzug in militärische Systeme halten werden.

„[T]„Ich denke, die Sache, die die Leute nicht wirklich schätzen, ist, dass diese Technologien entstehen, unabhängig davon, ob man danach fragt oder nicht“, sagte er. „Alle diese Dinge werden hereinkommen und verwendet werden. Sie werden uns mehr Möglichkeiten geben.“

US-Militärkommandeure fordern seit mehreren Jahren solche KI-Entscheidungshilfen, um den Gegnern einen Schritt voraus zu sein, sowohl bei zukünftigen Operationen in allen Kriegsgebieten als auch im „Grauzonen“-Wettbewerb knapp unterhalb der Konfliktschwelle.

Und im Februar hat Martell die Reihe „Global Information Dominance Experiment“ (GIDE) neu belebt, die darauf abzielt, das ehrgeizige Joint All Domain Command and Control (JADC2)-Konzept des US-Militärs zu konkretisieren, das auf die Kriegsführung mit Maschinengeschwindigkeit zu Lande, in der Luft, zu Wasser, im Weltraum und im Weltraum abzielt Cyber-Domänen. Die GIDE-Reihe, die erstmals im Jahr 2021 stattfindet, legt einen starken Fokus auf den Einsatz von KI- und maschinellen Lerntechnologien zur Steuerung von Sensoren und zur Zielerfassung von Schützen.

Siehe auch  Das neue Shap-E-Tool von OpenAI ist Dall-E für 3D-Objekte

Daher, so erklärte Kendall, bestehe das Ziel darin, ethische Überlegungen zu berücksichtigen und gleichzeitig die KI-Technologie schnell in die Praxis umzusetzen.

„Der Mensch wird immer noch die Rolle und Verantwortung dafür spielen, welche Maßnahmen ergriffen werden, und er muss in den Entscheidungsprozess einbezogen werden, damit er dies auf eine Weise tun kann, die auch operativ effizient ist.“ Und wir müssen sicherstellen, dass wir diese Technologien auf ethische und verantwortungsvolle Weise anwenden“, sagte er. „Und wir müssen sehr klug sein, wie wir Anforderungen formulieren, damit wir diesen Technologien die Möglichkeit geben, an Bord zu kommen und dann Wege für sie zu finden, die alle Probleme, über die ich gerade gesprochen habe, angehen, sie aber in die Hände bekommen.“ Kriegskämpfer, wo sie ihnen einen Vorteil verschaffen können.“

[ad_2]

4.6/5 - (183 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein