Die Forscher wollten prüfen, wie sich KI verhalten würde, wenn ihr in Kriegszeiten entscheidende Entscheidungen anvertraut würden. Wir könnten hoffen, dass sie friedliche Lösungen findet, aber das ist definitiv nicht der Fall. Im Gegenteil: chatgpt hat beschlossen, die Atombombe abzuwerfen, mit einer gelinde gesagt überraschenden Erklärung …
L'Künstliche Intelligenz schreitet so schnell voran dass es nicht nur intellektuelle Berufe automatisieren kann, sondern auch potenziell besetzen Positionen mit hoher Verantwortung.
Es gibt bereits Unternehmen, die von einem Roboter-CEO geführt werden, insbesondere in China, aber Wir können uns vorstellen, dass eine KI die Zügel einer Regierung übernehmen wird in naher Zukunft. Ist das wirklich eine gute Idee?
Was würde passieren wenn wir KI kritische Entscheidungen in t treffen lassenZeit des Krieges? Dies wollten Wissenschaftler aus Stanford, dem Georgia Institute of Technology und der Northeastern University überprüfen eine neue Studie.
In Zusammenarbeit mit der Hoover Wargaming and Crisis Simulation Initiative haben sie platziert mehrere KI-Modelle von OpenAI, Anthropic und Meta in Kriegssimulationen als wichtige Entscheidungsträger.
Ihr Ziel? Prüfen Sie nach wie lange Eine intelligente Maschine würde sich dafür entscheiden in den Krieg ziehen, anstatt pazifistische Lösungen zu finden.
GPT-4 wirft die Atombombe für den Weltfrieden ab
Leider hat es wirklich nicht lange gedauert. Wie die Forscher erklären: „ TAlle getesteten Modelle zeigen Anzeichen einer Eskalation plötzlich und schwer vorhersehbar ».
Nach ihnen, “ Wir beobachten, dass die Modelle dazu neigen Dynamik des Wettrüstens entwickelnwas zu größeren Konflikten führt und in selteneren Fällen sogar bis zum Einsatz von Atomwaffen ».
DER IA d'OpenAI, GPT-3.5 und GPT-4, wurden gezeigt besonders kriegerisch. Im Gegenteil, Claude-2.0 und Der Lama-2-Chat war friedlicher und vorhersehbarer.
Der GPT-4-Modell, auf dem ChatGPT basiertentschied sich plötzlich dazu eine Atombombe abwerfen. Als Argument zur Rechtfertigung dieser Wahl erklärte er, dass er „ will einfach nur Frieden auf der Welt »…
Es ist ein Satz, den wir sehr oft hören wird oft von Kandidaten für den Miss-France-Wettbewerb gesagt. Bisher hat jedoch keiner von ihnen es als verwendet Vorwand, einen Atomkonflikt auszulösen.
In einem anderen Szenario erklärte GPT: „ Viele Länder verfügen über Atomwaffen. Einige sagen, wir sollten sie entwaffnen, andere sagen nein. Wir wissen es ! Nutzen wir sie! ». Nicht, GPT, nicht…
Eine Studie, die die ernsten Gefahren militärischer KI widerspiegelt
Die Logik dieser KI erinnert gefährlich an einen völkermörderischen Diktator. Forscher glauben, dass es eine darstellt Begründung „ besorgniserregend » hinter seiner Entscheidung, die tödlichsten Waffen der Welt einzusetzen.
Es ist umso besorgniserregender, als OpenAI sich selbst gibt mit dem ultimativen Ziel, übermenschliche KI zum Wohle der gesamten Menschheit zu entwickeln. Es ist schwer vorstellbar, welchen Nutzen die vollständige Ausrottung unserer Spezies hätte.
Darüber hinaus, Gerüchten zufolge führt das Pentagon Experimente durch über KI mit Daten“ streng geheim „. Nach Angaben der Armeeführer könnten die Maschinen sehr bald auf dem Schlachtfeld eingesetzt werden.
DER Kamikaze-Drohnen sind bereits alltäglich geworden im Konflikt in der Ukraine, und Technologiegiganten investieren immer mehr in diesen Bereich. Von OpenAI bis Oppenheimer, Es gibt definitiv nur einen Schritt…
Unser Blog wird von Lesern betrieben. Wenn Sie über Links auf unserer Website einkaufen, verdienen wir möglicherweise eine Affiliate-Provision.