Berichten zufolge hat die United States Space Force ihren Mitarbeitern vorübergehend verboten, im Dienst generative künstliche Werkzeuge zu verwenden, um Regierungsdaten zu schützen.

Den Mitgliedern der Space Force wurde mitgeteilt, dass sie „keine Berechtigung“ für webbasierte generative KI-Tools haben – zum Erstellen von Texten, Bildern und anderen Medien – es sei denn, dies wurde ausdrücklich genehmigt. nach zu einem Bericht von Bloomberg vom 12. Oktober, in dem ein Memorandum zitiert wird, das am 29. September an die Guardian Workforce (Mitglieder der Space Force) gerichtet war.

„Generative KI „wird zweifellos unsere Belegschaft revolutionieren und die Fähigkeit von Guardian, schnell zu agieren, verbessern“, sagte Lisa Costa, stellvertretende Leiterin der Raumfahrtoperationen für Technologie und Innovation der Space Force, Berichten zufolge in dem Memorandum.

Costa äußerte jedoch Bedenken hinsichtlich der aktuellen Cybersicherheits- und Datenverarbeitungsstandards und erklärte, dass die Einführung von KI und großen Sprachmodellen (LLM) „verantwortungsvoller“ erfolgen müsse.

Die United States Space Force ist eine Raumfahrtabteilung der US-Streitkräfte mit der Aufgabe, die Interessen der USA und ihrer Verbündeten im Weltraum zu schützen.

Die Entscheidung der Space Force hat laut Bloomberg bereits Auswirkungen auf mindestens 500 Personen, die eine generative KI-Plattform namens „Ask Sage“ nutzen, und zitiert dabei Kommentare von Nick Chaillan, dem ehemaligen Chief Software Officer der United States Air Force und Space Force.

Siehe auch  Das Potenzial von ChatGPT nutzen: PR und Krisenkommunikation mit KI revolutionieren

Berichten zufolge kritisierte Chaillan die Entscheidung der Space Force. „Das wird uns eindeutig um Jahre hinter China zurückwerfen“, schrieb er im September in einer E-Mail, in der er sich bei Costa und anderen hochrangigen Verteidigungsbeamten beschwerte.

„Es ist eine sehr kurzsichtige Entscheidung“, fügte Chaillan hinzu.

Chaillan stellte fest, dass die US-amerikanische Central Intelligence Agency und ihre Abteilungen eigene generative KI-Tools entwickelt haben, die Datensicherheitsstandards erfüllen.

Verwandt: Datenschutz beim KI-Chatten: Entspricht chatgpt den DSGVO-Standards?

Die Befürchtung, dass LLMs private Informationen an die Öffentlichkeit weitergeben könnten, wurde in den letzten Monaten von einigen Regierungen befürchtet.

Italien blockierte im März vorübergehend den KI-Chatbot ChatGPT unter Berufung auf mutmaßliche Verstöße gegen Datenschutzbestimmungen, bevor es seine Entscheidung etwa einen Monat später wieder aufhob.

Tech-Giganten wie apple, Amazon und Samsung gehören ebenfalls zu den Unternehmen verboten oder Mitarbeiter daran gehindert, ChatGPT-ähnliche KI-Tools am Arbeitsplatz zu verwenden.

Zeitschrift: Musks angebliche Preismanipulation, der Satoshi AI Chatbot und mehr

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein