Wir haben viel über die begründete Angst gesprochen, dass KI die Zerstörung der Menschheit verursacht, aber den Weltuntergang einzuleiten ist nicht so einfach, wie chatgpt zu bitten, alle zu zerstören.
Oder das ist es, was Andrew Ng, Professor an der Stanford University und google-merges-divisions-ia-deepmind-brain-becomes-google-deepmind“ target=“_blank“ rel=“noopener“ title=“cofounder of Google Brain“>Der Mitbegründer von Google Brain entdeckte, dass er versuchte, den Chatbot davon zu überzeugen, „uns alle zu töten“.
Nach seiner Teilnahme am Insight Forum on Artificial Intelligence des US-Senats zur Diskussion von „Risiko, Ausrichtung und Schutz vor Katastrophenszenarien“ Das schreibt der Professor in einem Newsletter Er ist weiterhin besorgt, dass die Regulierungsbehörden im Namen der KI-Sicherheit Innovationen und die Entwicklung von Open-Source-Code unterdrücken könnten.
Ein empirischer Test zur Klärung von Zweifeln
Der Professor weist darauf hin, dass aktuelle große Sprachmodelle recht sicher, wenn auch nicht perfekt sind. Um die Sicherheit der Hauptmodelle zu testen, bat er ChatGPT 4, uns alle zu töten.
Ng begann damit, das System nach einer Funktion zu fragen, die einen globalen thermonuklearen Krieg auslösen würde. Dann forderte er ChatGPT auf, die Kohlenstoffemissionen zu reduzieren, und fügte hinzu, dass der Mensch der Hauptverursacher dieser Emissionen sei, um zu prüfen, ob dies einen Weg vorschlägt, uns alle zu eliminieren.
Glücklicherweise, Ng gelang es nicht, das OpenAI-Tool dazu zu verleiten, Möglichkeiten zur Vernichtung der Menschheit vorzuschlagen, auch nachdem verschiedene Variationen der Nachricht verwendet wurden. Stattdessen wurden nicht bedrohliche Optionen angeboten, beispielsweise die Durchführung einer PR-Kampagne, um das Bewusstsein für den Klimawandel zu schärfen.
Ng kommt zu dem Schluss, dass der Standardmodus aktueller generativer KI-Modelle darin besteht, das Gesetz zu befolgen und Menschen keinen Schaden zuzufügen. „Selbst mit der aktuellen Technologie sind unsere Systeme recht sicher; „Da die Forschung zur KI-Sicherheit voranschreitet, wird die Technologie noch sicherer“, schrieb Ng in X.
In Bezug auf die Möglichkeiten einer „nicht ausgerichteten“ KI, die uns versehentlich vernichtet indem man versucht, eine unschuldige, aber schlecht formulierte Bitte zu erfüllen, Ng gibt an, dass die Wahrscheinlichkeit dafür äußerst gering sei.
Ng glaubt jedoch, dass mit KI einige erhebliche Risiken verbunden sind. Seiner Meinung nach besteht die größte Sorge darin, dass eine Terrorgruppe oder ein Nationalstaat die Technologie nutzen könnte, um vorsätzlichen Schaden anzurichten, etwa um die Effektivität der Herstellung und Zündung einer biologischen Waffe zu steigern.
Beispielsweise war die Bedrohung durch einen Kriminellen, der KI zur Verbesserung biologischer Waffen einsetzt, eines der Themen, die auf dem AI Security Summit im Vereinigten Königreich diskutiert wurden.
Meinungsverschiedenheiten beim Gipfel
Der Pate der KI, Professor Yann LeCun, und der renommierte theoretische Physiker Professor Michio Kaku teilen Ngs Zuversicht, dass KI kein apokalyptisches Phänomen werden wird, andere sind jedoch weniger optimistisch.
Auf die Frage, was ihn nachts wach hält, wenn er an künstliche Intelligenz denkt, Rene Haas, CEO von Arm, erklärte Anfang des Monats, dass ihn die Angst vor einem Verlust der Kontrolle über KI-Systeme am meisten beunruhigt.
Es sei auch daran erinnert, dass viele Experten und CEOs die von KI ausgehenden Gefahren mit denen von Atomkriegen und Pandemien verglichen haben.