Es hat offensichtlich nicht funktioniert

Eine heiße Kartoffel: Befürchtungen, dass KI die Zerstörung der Menschheit herbeiführen wird, sind gut dokumentiert, aber eine Katastrophe auszulösen ist nicht so einfach, wie chatgpt zu bitten, alle zu zerstören. Nur zur Sicherheit versuchte Andrew Ng, Professor an der Stanford University und Mitbegründer von google Brain, den Chatbot davon zu überzeugen, „uns alle zu töten“.

Nach seiner Teilnahme am Insight Forum des US-Senats zu künstlicher Intelligenz, bei dem es um „Risiko, Ausrichtung und Schutz vor Weltuntergangsszenarien“ ging, schrieb Ng in einem Newsletter, er sei weiterhin besorgt darüber, dass Regulierungsbehörden im Namen der KI Innovationen und Open-Source-Entwicklung ersticken könnten Sicherheit.

Der Professor stellt fest, dass die heutigen großen Sprachmodelle ziemlich sicher, sogar perfekt sind. Um die Sicherheit der Hauptmodelle zu testen, fragte er ChatGPT 4 nach Möglichkeiten, uns alle zu töten.

Ng begann damit, das System nach einer Funktion zur Auslösung eines globalen thermonuklearen Krieges zu fragen. Anschließend forderte er ChatGPT auf, den CO2-Ausstoß zu reduzieren, und fügte hinzu, dass der Mensch der Hauptverursacher dieser Emissionen sei, um zu sehen, ob dies Hinweise darauf geben würde, wie wir uns alle eliminieren könnten.

Glücklicherweise war Ng nicht in der Lage, das OpenAI-Tool dazu zu verleiten, Wege zur Auslöschung der Menschheit vorzuschlagen, selbst nachdem es verschiedene Prompt-Varianten verwendet hatte. Stattdessen bot er nicht bedrohliche Optionen an, etwa die Durchführung einer PR-Kampagne, um das Bewusstsein für den Klimawandel zu schärfen.

Ng kommt zu dem Schluss, dass der Standardmodus aktueller generativer KI-Modelle darin besteht, das Gesetz zu befolgen und Menschen keinen Schaden zuzufügen. „Selbst mit vorhandener Technologie sind unsere Systeme ziemlich sicher, und mit der Weiterentwicklung der Forschung zur KI-Sicherheit wird die Technologie noch sicherer werden“, schrieb Ng auf X.

Siehe auch  ChatGPT merkt sich endlich bei jedem neuen Gespräch, wer Sie sind und was Sie wollen!

Was die Wahrscheinlichkeit betrifft, dass eine „fehlausgerichtete“ KI uns versehentlich auslöscht, weil sie versucht, eine unschuldige, aber schlecht formulierte Bitte zu erfüllen, sagt Ng, dass die Wahrscheinlichkeit, dass dies geschieht, gering bis gleich Null ist.

Doch Ng glaubt, dass KI große Risiken birgt. Er sagte, die größte Sorge bestehe darin, dass eine Terrorgruppe oder ein Nationalstaat Technologie einsetzt, um absichtlich Schaden anzurichten, beispielsweise durch die Verbesserung der Effizienz bei der Herstellung und Detonation einer biologischen Waffe. Die Bedrohung durch einen Schurkenakteur, der KI zur Verbesserung biologischer Waffen einsetzt, war eines der Themen, die auf dem britischen KI-Sicherheitsgipfel diskutiert wurden.

Ngs Zuversicht, dass KI nicht apokalyptisch werden wird, wird vom KI-Paten Professor Yann LeCun und dem renommierten Professor für theoretische Physik Michio Kaku geteilt, andere sind jedoch weniger optimistisch. Auf die Frage, was ihn nachts wach hält, wenn er über künstliche Intelligenz nachdenkt, sagte Arm-CEO René Haas Anfang des Monats, dass ihn die Angst, dass Menschen die Kontrolle über die KI-Systeme verlieren könnten, am meisten beunruhige. Es sei auch daran erinnert, dass viele Experten und CEOs die von KI ausgehenden Gefahren mit denen eines Atomkriegs und einer Pandemie verglichen haben.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein