Bild für den Artikel mit dem Titel Pentagon stellt Plan vor, um „verantwortungsbewusste militärische KI“ zu schaffen  Mehr als nur ein Buzzword

Foto: AFP (Getty Images)

Das Pentagon marschiert mit KI-Kriegswaffen voran … verantwortungsbewusst.

Diese Woche veröffentlichte das Verteidigungsministerium ein langes 47-seitiges Dokument, das den Plan des Militärs zur Umsetzung seiner verantwortungsvollen Prinzipien der künstlichen Intelligenz umreißt, das im Grunde darauf abzielt, KI in das Militär zu integrieren, ohne die Welt in eine Terminator-ähnliche Höllenlandschaft zu verwandeln. Obwohl das DoD zuerst skizziert seine ethischen KI-Ziele im Jahr 2020, die dieser Woche Verantwortlicher Weg zur KI-Entwicklung und -Beschleunigung Dokumentieren Sie detailliert die systematischen Wege, die die Abteilung plant, um diese Ansprüche zu verwirklichen und sie über bloßes Wunschdenken hinaus zu erheben.

In dem Dokument verteidigte die stellvertretende Verteidigungsministerin Kathleen Hicks das Streben des Militärs nach KI-Technologie und behauptete, die US-Gegner hätten ihre KI-Investitionen auf eine Weise erhöht, die „die globale Sicherheit, den Frieden und die Stabilität bedrohen“. Auf diese „Bedrohung“ will das Pentagon per Rampe reagierenInvestitionen zu Hause aufstocken.

„Um unseren militärischen Vorteil in einer digital wettbewerbsorientierten Welt zu wahren, muss das US-Verteidigungsministerium (DoD) KI-Technologien einsetzen, um mit diesen sich entwickelnden Bedrohungen Schritt zu halten“, schreibt Hicks. „Die Nutzung neuer Technologien auf rechtmäßige, ethische, verantwortungsvolle und nachvollziehbare Weise ist der Kern unseres Ethos.“

Das Dokument bietet eine Zeitleiste der sich entwickelnden Einstellungen des Pentagon gegenüber ethischer KI und stellt fest, dass die Abteilung „ihren ethischen Rahmen ausgereift hat, um die einzigartigen Eigenschaften von Al und das Potenzial für unbeabsichtigte Konsequenzen zu berücksichtigen“. Forscher außerhalb des Militärs haben gezeigt, dass KI-Systeme kulturelle Vorurteile verstärken und Farbige diskriminieren können.

Im Allgemeinen diese neuen Richtlinien, die messbare Ziele für jedes DoD hinzufügen sechs grundlegende verantwortungsbewusste KI-Grundsätze, sollen das „Vertrauen“ der Militärangehörigen und der Öffentlichkeit gewinnen. Das Dokument definiert dieses Vertrauen als den „gewünschten Endzustand“, der es ihm ermöglicht, die neue KI-Technologie weiter voranzutreiben.

„Das Vertrauen in DoD Al wird es dem Ministerium ermöglichen, seine Fähigkeiten zur Kriegsführung in einer Reihe von Kampf- und Nichtkampfanwendungen zu modernisieren und dabei die Bedürfnisse derjenigen innerhalb und außerhalb des DoD zu berücksichtigen“, heißt es in dem Dokument. „Ohne Vertrauen, Kriegskämpfer und Führer werden Al nicht effektiv einsetzen und das amerikanische Volk wird die fortgesetzte Nutzung und Einführung solcher Technologien nicht unterstützen.“ Das Verteidigungsministerium sagte, es wolle diese Betonung des Vertrauens auch auf seine Interaktion mit anderen Nationen anwenden und „neue internationale Normen für die KI-Nutzung“ festlegen.

Zu diesem Zweck eine kürzlich durchgeführte Morning Consult Umfrage der US-Erwachsenen zeigt eine gemischte Sammlung von Meinungen zum Ansehen der KI des Militärs. Etwa ein Viertel (26 %) der Erwachsenen gaben an, das US-Militär sei in Sachen KI fortschrittlicher als China, verglichen mit etwas mehr 29 %, die der Meinung sind, die USA seien weniger fortschrittlich.

Bild für den Artikel mit dem Titel Pentagon stellt Plan vor, um „verantwortungsbewusste militärische KI“ zu schaffen  Mehr als nur ein Buzzword

Foto: Alex Wang (Getty Images)

Gizmodo sprach während eines Marsches mit Hicks über die Philosophie des Pentagon zur KI-Integration DoD-Reise nach Kalifornien. Dort betonte sie, wie wichtig es sei, einen „Human-in-the-Loop“-Ansatz beizubehalten, bei dem ein menschlicher Bediener immer noch eine letzte Rolle bei der Entscheidung spielt, wann ein KI-System sein Ziel ausführt. Hicks fügte hinzu, dass sich jede militärische Anwendung von KI an den Werten der USA ausrichten müsse, eine Formulierung, die sowohl stillschweigend beruhigend als auch letztendlich mehrdeutig ist.

„Es ist zwingend erforderlich, dass wir ein vertrauenswürdiges Ökosystem aufbauen, das nicht nur unsere militärischen Fähigkeiten verbessert, sondern auch Vertrauen bei Endbenutzern, Kriegskämpfern, der amerikanischen Öffentlichkeit und internationalen Partnern aufbaut“, sagte Hicks in einer Erklärung gegenüber Gizmodo am Donnerstag. „Der Pathway bekräftigt das Engagement des Ministeriums, als verantwortungsbewusste KI-fähige Organisation zu agieren.“

Der KI-Pfadbericht des DOD kommt inmitten einer Zeit offensichtlicher Spannungen in den inneren Reihen des Pentagon. ​​Nicolas Chaillan, der erste Chief Software Officer des Pentagon, trat im Oktober nach drei Jahren auf dramatische Weise zurück, teilweise wegen dem, was er als das Versagen der USA ansah, mit China Schritt zu halten. In einem (n Interview mit dem Finanzzeiten nach seinem Rücktrittsagte Chaillan, es gebe einen „guten Grund, wütend zu sein“ auf die technischen Fähigkeiten des Pentagon.

Siehe auch  Bitcoin Pyramid Scheme Betrüger zur Zahlung von 3,4 Milliarden Dollar verurteilt

„Wir haben in 15 bis 20 Jahren keine konkurrierende Kampfchance gegen China“, sagte Chaillan. „Im Moment ist es bereits beschlossene Sache; es ist meiner Meinung nach schon vorbei.“

Das Pentagon hat Chaillan seitdem durch Craig Martell, den ehemaligen Leiter des maschinellen Lernens von Lyft, ersetzt, der dies getan hat trat der Abteilung als Chief Digital and Artificial Intelligence Officer bei. Martell wird angeblich eine Schlüsselrolle bei der Weiterentwicklung der KI-Strategie des Pentagon spielen.

Menschenrechtsgruppen sind unruhig wegen militärischer KI

Tobwohl es ist zunehmend gesehen als eine Zwangsläufigkeit, militärischer Einsatz von KI Überreste heiß diskutiert. Während Aktivistengruppen wie Human Rights Watch und Amnesty International dazu aufgerufen haben breite Verbote von KI-fähige autonome Waffen, Das militärische Establishment und ehemalige Schwergewichte der Technologieindustrie haben sich regelmäßig auf das „Was ist mit China-Argument“ verlassen, um auf eine tiefere KI-Integration zwischen kommerziellen KI-Unternehmen und dem Militär zu drängen.

„Maschinen zu erlauben, Entscheidungen über Leben und Tod zu treffen, ist ein Angriff auf die Menschenwürde und wird wahrscheinlich zu verheerenden Verletzungen des Kriegsrechts und der Menschenrechte führen“, sagte der leitende Berater von Amnesty International für Militär, Sicherheit und Polizei in a Aussage. „Es wird auch die digitale Entmenschlichung der Gesellschaft verstärken und Menschen auf zu verarbeitende Datenpunkte reduzieren. Wir brauchen einen robusten, rechtsverbindlichen internationalen Vertrag, um die Verbreitung von Killerrobotern zu stoppen.“

Eine der lautesten Stimmen, die eine stärkere militärische KI-Nutzung fordern, kommt vom ehemaligen Google-CEO Eric Schmidt, der es 2019 war beauftragt vom damaligen Präsidenten Trump zum Co-Leiter der Nationale Sicherheitskommission für KI, eine Organisation, deren Ziel es ist, lange Berichte für den Präsidenten und den Kongress zu erstellen, in denen Methoden und Strategien zur Förderung der KI in der Landesverteidigung detailliert beschrieben werden. In seinem Bericht äußerte sich Schmidt kritisch zu dem, was er für eine gewisse ethische Bürokratie beim Einsatz von KI beim Militär hält, und äußerte sich besorgt darüber, dass „autoritäre Staaten“ wie China „nicht durch dieselben strengen Tests und ethischen Grundsätze eingeschränkt werden, die das US-Militär leiten“.

Siehe auch  Gemini, Googles lang erwartete Antwort auf ChatGPT, ist über Nacht ein Hit

Bisher haben die USA kein Interesse daran gezeigt, ihre KI-Expansion zu verlangsamen. Während eines UN-Treffens in Genf Ende letzten Jahres schlossen sich die USA Russland, China und Indien als eines von nur einer Handvoll Ländern anie das ablehnen rechtsverbindliche Instrumente zur Begrenzung der autonomen Waffenentwicklung.

„Das Fehlen eines substanziellen Ergebnisses bei der UN-Überprüfungskonferenz ist eine völlig unzureichende Reaktion auf die Bedenken, die von Killerrobotern geäußert werden“, sagte Steve Goose, Direktor von Human Rights Watch Arms, in a Aussage nach dem Treffen in Genf. „Das Scheitern der derzeitigen diplomatischen Gespräche, einen Weg nach vorne für Killerroboter zu empfehlen, zeigt, dass die Länder einen anderen Weg einschlagen müssen, um diese Waffensysteme zu verbieten. Die Welt kann nicht warten.“

Auf der anderen Seite haben es bereits mindestens 30 Länder getan angeblich sprach sich für ein Verbot autonomer Waffensysteme aus. Diese Forderungen nach einem Verbot autonomer Waffen haben sogar die Unterstützung von UN-Generalsekretär António Guterres erhalten, der letztes Jahr eine Erklärung veröffentlichte, in der es heißt, Synchronisationssysteme sollten nach internationalem Recht verboten werden.

„Autonome Maschinen mit der Macht und dem Ermessen, ohne menschliche Beteiligung Ziele auszuwählen und Menschenleben zu nehmen, sind politisch inakzeptabel, moralisch abstoßend und sollten nach internationalem Recht verboten werden“, sagte Guterres in einer Stellungnahme aus dem Jahr 2019 Aussage.

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein