Den Wächtern der Space Force droht ein vorübergehendes Verbot der Nutzung generativer künstlicher Intelligenzwerkzeuge und großer Sprachmodelle (LLM) für offizielle Zwecke.

Der Umzug, zuerst berichtet von Bloombergwurde in einem Memo vom 29. September von Lisa Costa, der Chief Technology and Innovation Officer der Space Force, angekündigt.

Laut dem Memo, das dem Air & Space Forces Magazine vorliegt, ist es Wächtern untersagt, Regierungsdaten in generativen KI-Lösungen zu verwenden, es sei denn, sie erhalten eine offizielle Genehmigung.

IBM beschreibt generative KI als Programme, „die auf der Grundlage der Daten, auf denen sie trainiert wurden, qualitativ hochwertige Texte, Bilder und andere Inhalte generieren können“ – Plattformen wie chatgpt von OpenAI und Ask Sage, ein Modell, das vom Department of the Air für die Regierungsarbeit entwickelt wurde Nicolas M. Chaillan, ehemaliger Chief Software Officer von Force.

ChatGPT-Logo auf einer Tastatur. Mike Tsukamoto/Mitarbeiter; GuHyeok Jeong/Pixabay

In einem Interview mit dem Air & Space Forces Magazine sprach sich Chaillan gegen den Schritt der Space Force aus und verwies auf Bedenken hinsichtlich der Wirksamkeit des Verbots einer gesamten Technologie oder Plattform und der potenziellen Risiken, die mit dem Zugriff von Personal auf diese Plattformen über ihre persönlichen Geräte verbunden sind.

„Wenn Menschen die Nutzung staatlicher Geräte verboten wird und Ihnen die Nutzung Ihres Geräts (für den Zugriff auf diese Plattformen) untersagt wird, werden die Menschen dazu gedrängt, ihr persönliches Gerät zu nutzen. Die Leute haben auf der Plattform persönliche Konten erstellt, was ein höheres Risiko birgt. Alles, was Sie tun, wenn Sie solche Dinge tun, ist die Schaffung von mehr Schatten-IT und mehr Cyber-Risiken“, sagte Chaillan.

Siehe auch  Dieser neue ChatGPT-basierte Infostealer zielt auf Cloud-Plattformen ab

Laut Chaillan wurde Ask Sage auf Regierungs-Clouds entwickelt und so konstruiert, dass es alle Cybersicherheitsvoraussetzungen erfüllt. Er sagte, in den letzten sechs Monaten hätten rund 500 Guardians die Plattform genutzt, ohne dass Sicherheitsvorfälle gemeldet worden seien. Er sagte auch, dass es derzeit im gesamten Verteidigungsministerium 10.000 Ask Sage-Benutzer gebe.

Ein Pentagon-Sprecher sagte, sie seien nicht in der Lage, die genaue Anzahl der Ask Sage-Benutzer zu überprüfen, aber in einer Erklärung wiederholten sie viele der gleichen Bedenken, die Costa in ihrem Memo erwähnte.

„LLMs sind vielversprechend, um das Personal des Verteidigungsministeriums bei der Bewältigung einer Vielzahl von Aufgaben zu unterstützen. Wir müssen jedoch sicherstellen, dass sensible Daten des Verteidigungsministeriums bei der Nutzung solcher Plattformen geschützt sind“, sagte der Sprecher per E-Mail. „Es wurden auch berechtigte Bedenken hinsichtlich der Nachvollziehbarkeit und Gültigkeit der von LLMs bereitgestellten Antworten geäußert.“

Die Sprecherin der Space Force, Maj. Tanya Downsworth, sagte gegenüber dem Air & Space Forces Magazine, dass Costas Memo eine „vorübergehende, strategische Pause einleitet, um den besten Weg nach vorne zu prüfen, um diese Fähigkeit in die USSF-Mission einzubinden, die die Daten unseres Dienstes und der Guardians schützt.“

Sie fügte hinzu, dass der Dienst sich mit Risikomanagementmethoden befassen und Pilotprogramme dazu ermutigen werde, Daten zu sammeln, um Entscheidungen zu treffen.

Chaillan argumentierte jedoch, dass jede Verzögerung bei einer sich so schnell entwickelnden Technologie das Risiko birgt, gegenüber Unternehmen wie China an Boden zu verlieren. Peking hat den Wunsch zum Ausdruck gebracht, eine Führungsrolle bei der Nutzung der Macht der generativen künstlichen Intelligenz in einem Spektrum militärischer Anwendungen zu übernehmen, um die Zukunft der Kriegsführung neu zu gestalten.

Siehe auch  Angebliche Leaks neuer ChatGPT-Prototypen und -Funktionen

Als ChatGPT Anfang des Jahres erstmals an Popularität gewann, Verteidigungsbeamte bis hin zum Luftwaffenminister Frank Kendall schlug vor, dass die Technologie unzählige Einsatzmöglichkeiten haben könntevon der Akquise bis zur Missionsplanung.

Aber die Entscheidung der Space Force dämpft etwas von dieser Aufregung. Chaillan seinerseits schlug die Möglichkeit vor, dass das Verteidigungsministerium die Entwicklung einer eigenen Technologie unter Nutzung generativer KI und LLM in Betracht zieht.

„Ich frage mich, ob sie darüber nachdenken, ihre eigenen Gebäude zu bauen, was mit enormen Steuerausgaben verbunden sein wird“, sagte er. Chaillan kündigte seinen Job bei der Air Force im Jahr 2021 und nannte den Mangel an Finanzmitteln für entscheidende Technologien im Joint All-Domain Command and Control (JADC2) als Wendepunkt für seinen Rücktritt.

Bisher gab es keine öffentlichen Diskussionen von Pentagon-Beamten über den Aufbau eines eigenen GenAI/LLM-Modells. Im August gab das Verteidigungsministerium jedoch die Gründung bekannt Task Force Lima, geleitet vom Chief Digital and Artificial Intelligence Office des DOD. Diese Task Force widmet sich der Förderung der nationalen Sicherheit durch GenAI in verschiedenen Verteidigungsbereichen.

In Costas Memo wurde die Beteiligung ihres Büros an der Task Force Lima hervorgehoben, mit dem gemeinsamen Ziel, „die Fähigkeiten von GenAI und LLMs verantwortungsvoll und strategisch zu nutzen“.

Costa zeigte sich auch zuversichtlich in den langfristigen Nutzen der Technologie und schrieb, dass Gen AI „zweifellos unsere Belegschaft revolutionieren und die Fähigkeit der Wächter verbessern wird, schnell zu agieren“.

Bezüglich der Dauer des Verbots sagte Downsworth, dass das CTIO beabsichtige, die Formulierung und Herausgabe spezifischer USSF-Leitlinien zu beschleunigen, möglicherweise innerhalb von 30 Tagen nach Veröffentlichung des Memos.

Siehe auch  ChatGPT kann zur Aufklärung von Patienten mit interventioneller Radiologie beitragen

5/5 - (316 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein