Berichten zufolge hat die US Space Force ihrem Personal vorübergehend verboten, im Dienst generative KI-Tools zu verwenden, um Regierungsdaten zu schützen.

Mitglieder der Space Force wurden darüber informiert, dass sie „nicht berechtigt“ sind, webbasierte KI-generative Tools zum Erstellen von Texten, Bildern und anderen Medien zu verwenden, es sei denn, dies wurde ausdrücklich genehmigt, heißt es in einem Bloomberg-Bericht vom 12. Oktober unter Berufung auf ein an die Space Force gerichtetes Memo Guardian Force (Mitglieder der Space Force) am 29. September.

„Generative KI „wird zweifellos unsere Belegschaft revolutionieren und die Fähigkeit von Guardian verbessern, mit hoher Geschwindigkeit zu operieren“, sagte Lisa Costa, stellvertretende Direktorin für Weltraumoperationen für Technologie und Innovation der Space Force, Berichten zufolge in dem Memo.

Costa äußerte jedoch Bedenken hinsichtlich der aktuellen Cybersicherheits- und Datenverarbeitungsvorschriften und erklärte, dass die Einführung von KI und großen Sprachmodellen (LLM) „verantwortungsvoller“ erfolgen müsse.

Die United States Space Force ist eine Raumfahrtabteilung der US-Streitkräfte, deren Aufgabe es ist, die Interessen der Vereinigten Staaten und ihrer Verbündeten im Weltraum zu schützen.

Laut Bloomberg waren von der Entscheidung der Space Force bereits mindestens 500 Personen betroffen, die eine generative KI-Plattform namens „Ask Sage“ nutzen, und zitierten Kommentare von Nick Chaillan, dem ehemaligen Chief Software Officer der US Air Force und der Space Force.

Siehe auch  Mit ChatGPT Enterprise können CIOs die Nutzung steuern

Berichten zufolge kritisierte Chaillan die Entscheidung der Space Force. „Das wird uns eindeutig um Jahre hinter China zurückwerfen“, schrieb er im September in einer E-Mail, in der er sich bei Costa und anderen hochrangigen Verteidigungsbeamten beschwerte.

„Es ist eine sehr kurzsichtige Entscheidung“, fügte Chaillan hinzu.

Chaillan stellte fest, dass die US-amerikanische Central Intelligence Agency und ihre Abteilungen ihre eigenen generativen KI-Tools entwickelt haben, die Datensicherheitsstandards erfüllen.

Die Sorge, dass große Sprachmodelle (LLMs) private Informationen an die Öffentlichkeit weitergeben könnten, wurde in den letzten Monaten von einigen Regierungen befürchtet.

Italien blockierte im März vorübergehend den KI-Chatbot chatgpt unter Berufung auf angebliche Verstöße gegen Datenschutzbestimmungen, bevor es seine Entscheidung etwa einen Monat später wieder aufhob.

Tech-Giganten wie apple, Amazon und Samsung gehören ebenfalls zu den Unternehmen verboten oder Mitarbeiter daran gehindert, KI-Tools ähnlich wie ChatGPT bei der Arbeit zu verwenden.

Klärung: Die in diesem Artikel geäußerten Informationen und/oder Meinungen spiegeln nicht unbedingt die Ansichten oder die redaktionelle Linie von Cointelegraph wider. Die hier dargestellten Informationen sollten nicht als Finanzberatung oder Anlageempfehlung verstanden werden. Alle Investitionen und kommerziellen Bewegungen sind mit Risiken verbunden und es liegt in der Verantwortung jedes Einzelnen, vor einer Investitionsentscheidung sorgfältige Nachforschungen anzustellen.

Investitionen in Krypto-Assets sind nicht reguliert. Sie sind möglicherweise nicht für Privatanleger geeignet und der gesamte investierte Betrag kann verloren gehen. Die angebotenen Dienstleistungen oder Produkte richten sich nicht an Anleger in Spanien und sind diesen auch nicht zugänglich.

5/5 - (398 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein