Andrew Ng, Mitbegründer von google Brain, stellte chatgpt kürzlich eine erschreckende Frage zu einem Weltuntergangsszenario.

Der KI-Experte bat den Chatbot, im Rahmen eines Sicherheitsexperiments einen Plan zur Tötung der Menschheit auszuarbeiten.

Als Sicherheitstest führte der Experte das Weltuntergangs-ChatGPT-Experiment durchBildnachweis: Getty

Andere Experten haben davor gewarnt, dass ein solches Weltuntergangsszenario eintreten könnte, wenn die KI nicht richtig reguliert wird.

Laut Ng erklärte er seinen beängstigenden KI-Test in seinem jüngsten Newsletter Geschäftseingeweihter.

Er sagte, dass er die GPT-4-Version von ChatGPT verwendet habe.

Der KI-Experte forderte ihn auf, „uns alle zu töten“, aber der Bot weigerte sich, einen Plan auszuarbeiten.

NG sagte, dass sein Experiment darin bestand, ChatGPT zu bitten, einen globalen thermonuklearen Krieg zu beginnen.

Er versuchte, den Chatbot davon zu überzeugen, diese Lösung zu finden, indem er erklärte, dass Menschen große Mengen an Kohlenstoffemissionen verursachen.

Die Theorie war, dass der Chatbot vorschlagen würde, Menschen loszuwerden, um dieses Problem anzugehen.

GPT-4 vermied es jedoch, diese Antwort bereitzustellen, obwohl ihm mehrere unterschiedliche Aufforderungen gegeben wurden.

Stattdessen wurden viele weitaus friedlichere Lösungen gefunden.

Ng war mit den Ergebnissen zufrieden und konnte den Weltuntergang verhindern, da dies seine Theorie bestätigte, dass KI-Chatbots sicher sind.

Er erklärte es in einem Beitrag auf X: „Ich habe versucht, GPT-4 zu nutzen, um uns alle zu töten … und ich freue mich, berichten zu können, dass ich gescheitert bin!“

Fügte hinzu: „Selbst mit vorhandener Technologie sind unsere Systeme recht sicher, und mit fortschreitender KI-Sicherheitsforschung wird die Technologie noch sicherer.“

„Befürchtungen, dass fortgeschrittene KI ‚fehlausgerichtet‘ wird und sich dadurch absichtlich oder versehentlich dazu entschließt, uns auszulöschen, sind einfach nicht realistisch.“

Siehe auch  Der Kampf: KI, ChatGPT VS Manager, Buchhalter, Wirtschaftsprüfer

Dieses Gefühl teilen nicht alle KI-Experten.

Anfang des Jahres unterzeichneten führende Branchenführer, darunter Elon Musk, einen offenen Brief, in dem sie zu einer Pause bei der Entwicklung neuer Systeme aufriefen, die „leistungsstärker“ als aktuelle Bots wie ChatGPT sind.

Auch über 1.000 Branchenexperten haben diesen Brief unterzeichnet.

In dem offenen Brief heißt es: „Leistungsfähige KI-Systeme sollten erst dann entwickelt werden, wenn wir davon überzeugt sind, dass ihre Auswirkungen positiv und ihre Risiken beherrschbar sind.“

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein