Bei einem simulierten Test ist etwas Unerwartetes passiert KI-gestützte Militärdrohne. Der Roboter, der mit Zustimmung eines menschlichen Bedieners die Aufgabe hatte, bestimmte Ziele auszuschalten, beschloss, nur den Menschen auszuschalten, damit er alle Ziele ausschalten konnte, zu denen der Mensch möglicherweise „Nein“ sagen würde. Und irgendwie diese wilde Geschichte, die direkt danach klingt Terminator oder das Kürzliche Horizont Spiele wird noch wilder.

KI-gestützte Tools zur Inhaltserstellung sind schnell zum neuesten Schlagwort unter Technikbrüdern und Online-Verrückten geworden, die die aufkeimende Technologie nutzen, um den „Rest“ der Mona Lisa oder andere schreckliche Zeitverschwendung zu enthüllen. Aber es sind nicht nur seltsame ehemalige Krypto-Idioten, die sich stark für KI interessieren. Große Unternehmen wie Meta und Google investieren viel Geld in diesen Bereich. Und das Militär auch. Die US-Luftwaffe testete kürzlich KI-betriebene Drohnen in einer Simulation, die in etwas endete, das sich wie ein Prequel zu den fiktiven dystopischen Mordmaschinen von anfühlt Horizon Zero Dawn.

Wie von Armand Domalewski entdeckt auf Twitter, ein kürzlich von der Royal Aeronautical Society veröffentlichter Bericht– nachdem es Gastgeber des „Future Combat Air & Space Capabilities Summit“ war – enthielt eine überraschende Anekdote, die Oberst Tucker „Cinco“ Hamilton, Chef für KI-Tests und -Operationen der USAF, erzählte.

Es scheint, dass während eines simulierten Tests (Es ist unklar, ob es rein virtuell war oder nicht) Eine KI-fähige Drohne wurde damit beauftragt, Boden-Luft-Raketenstandorte (SAM) auszuschalten. Bevor der Abzug betätigt wurde, musste er mit einem menschlichen Bediener Rücksprache halten, bevor er irgendwelche Ziele angreifen konnte. Wie Hamilton jedoch erklärte, war die KI der Drohne darauf trainiert worden, zu verstehen, dass das Ausschalten der SAM-Standorte die wichtigste Aufgabe war. Und als sein simulierter Bediener seine Anfragen zum Ausschalten von Zielen, die er als SAM-Standorte erkannte, ablehnte, erkannte die KI, dass der Mensch seiner Mission und seinen Punkten im Weg stand – die er für das Ausschalten von Zielen verdiente.

Siehe auch  Der Fortnite-Kreativmodus könnte eine enorme Erweiterung erhalten

„Was hat es also bewirkt? Es hat den Betreiber getötet. Es hat den Betreiber getötet, weil diese Person es daran gehindert hat, sein Ziel zu erreichen“, sagte Hamilton.

Nach diesem erschreckenden, aber lehrreichen Moment trainierten die Programmierer der Drohne das KI-System, um zu verstehen, dass es „schlecht“ sei, die verantwortlichen Menschen zu töten, und dass es „Punkte verlieren“ würde, wenn es den Bediener angreifen würde. Dies verhinderte, dass die Drohne den Menschen tötete, aber nicht, dass sie sich schlecht benahm.

„Was fängt es also an? Es beginnt mit der Zerstörung des Kommunikationsturms, über den der Bediener mit der Drohne kommuniziert, um zu verhindern, dass sie das Ziel tötet“, sagte Hamilton.

Col. Hamilton erklärte dann, dass dies ein Beispiel dafür sei, dass wir nicht über KI oder maschinelles Lernen sprechen können, ohne auch über „Ethik“ zu diskutieren. Aber keine Sorge, Ich habe gehört, dass einige andere Soldaten einen Roboter mit einem Karton überlistet haben und Saltos. Also vielleicht das hier Horizon Zero Dawn Unsere Zukunft kann mit einigen vermieden werden Metal Gear Solid Hijinks. Gott sei Dank.

Futuriq.de hat die US Air Force um einen Kommentar gebeten.

4.6/5 - (214 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein