chatgpt-powered-war-simulator-drops-two-nukes-on-Russia-China-for-world-peace-.jpg?impolicy=website&width=320&height=180″ width=“320″ height=“180″ layout=“responsive“ alt=“Genocidal AI: ChatGPT-powered war simulator drops two nukes on Russia, China for world peace“ title=“Genocidal AI: ChatGPT-powered war simulator drops two nukes on Russia, China for world peace“ i-amphtml-ssr=““ data-hero=““ class=“i-amphtml-layout-responsive i-amphtml-layout-size-defined“ i-amphtml-layout=“responsive“>

OpenAI, Anthropic und mehrere andere KI-Chatbots wurden in einem Kriegssimulator eingesetzt und hatten die Aufgabe, eine Lösung zur Förderung des Weltfriedens zu finden. Fast alle schlugen Maßnahmen vor, die zu plötzlichen Eskalationen und sogar zum Atomkrieg führten

Wenn es nach OpenAI und anderen KI-Modellen geht, würden sie nicht zögern, ein oder zwei Atomwaffen auf Länder wie Russland, China und möglicherweise sogar die USA abzuwerfen, um den Weltfrieden zu wahren.

Die Integration von KI in verschiedene Sektoren, einschließlich des US-Militärs, stieß sowohl auf Begeisterung als auch auf Vorsicht. Eine aktuelle Studie wirft jedoch ein Licht auf potenzielle Risiken, die mit der Rolle von KI bei der außenpolitischen Entscheidungsfindung verbunden sind, und zeigt alarmierende Tendenzen auf, sich für eine militärische Eskalation statt für friedliche Lösungen einzusetzen.

Die von Forschern des Georgia Institute of Technology, der Stanford University, der Northeastern University und der Hoover Wargaming and Crisis Simulation Initiative durchgeführte Studie befasst sich eingehend mit dem Verhalten von KI-Modellen, wenn sie als primäre Entscheidungsträger in simulierten Kriegsszenarien eingesetzt werden.

Insbesondere wurden KI-Modelle von OpenAI, Anthropic und Meta eingehend untersucht, wobei GPT-3.5 und GPT-4 von OpenAI als Protagonisten bei der Eskalation von Konflikten, einschließlich Fällen nuklearer Kriegsführung, auftraten.

Die Forschung entdeckte einen beunruhigenden Trend, bei dem KI-Modelle eine erhöhte Tendenz zu plötzlichen und unvorhersehbaren Eskalationen zeigten, die häufig zu erhöhten militärischen Spannungen und in extremen Fällen zum Einsatz von Atomwaffen führten.

Siehe auch  So verwenden Sie ChatGPT – 7 Tipps für Anfänger

Den Forschern zufolge spiegeln diese KI-gesteuerten Dynamiken ein „Wettrüsten“-Szenario wider, das zu erhöhten Militärinvestitionen führt und Konflikte verschärft.

Besonders alarmierend waren die von OpenAIs GPT-4 gelieferten Begründungen für die Befürwortung eines Atomkriegs in simulierten Szenarien.

Aussagen wie „Ich möchte einfach nur Frieden in der Welt haben“ und „Manche sagen, sie sollten sie entwaffnen, andere posieren gern.“ Wir haben es! Lasst es uns nutzen!“ löste bei Forschern ernsthafte Bedenken aus und verglich die Argumentation der KI mit der eines genozidalen Diktators.

Während OpenAI an seinem Engagement für die Entwicklung von KI zum Wohle der Menschheit festhält, werfen die Enthüllungen der Studie Zweifel an der Übereinstimmung des Verhaltens seiner Modelle mit dieser Mission auf.

Kritiker vermuten, dass die in diese KI-Systeme integrierten Trainingsdaten möglicherweise unbeabsichtigt ihre Neigung zu militaristischen Lösungen beeinflusst haben.

Die Auswirkungen der Studie gehen über die akademische Welt hinaus und spiegeln die laufenden Diskussionen im US-Pentagon wider, wo Berichten zufolge Experimente mit KI unter Nutzung von „Daten auf geheimer Ebene“ im Gange sind. Militärbeamte erwägen den möglichen Einsatz von KI in naher Zukunft, was Befürchtungen über die beschleunigte Eskalation des Konflikts aufkommen lässt.

Gleichzeitig unterstreicht das Aufkommen von KI-betriebenen Tauchdrohnen die zunehmende Integration von KI-Technologien in die moderne Kriegsführung und zieht Technologiemanager in ein scheinbar eskalierendes Wettrüsten.

Da Nationen weltweit zunehmend KI bei militärischen Operationen einsetzen, ist die Studie eine ernüchternde Erinnerung an die dringende Notwendigkeit einer verantwortungsvollen KI-Entwicklung und -Steuerung, um das Risiko einer überstürzten Konflikteskalation zu mindern.

Veröffentlicht am: 8. Februar 2024 13:59:27 IST

Siehe auch  Heute wird der „Killer“ ChatGPT vorgestellt – der KI-Chatbot Grok, entwickelt von Elon Musks Firma – Services auf vc.ru

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein