[ad_1]

Eine weitere wichtige gemeinsame Unterschrift erschien in der KI-Welt, und 350 KI-Behörden, darunter „Vater von chatgpt“ Sam Altman, schlossen sich dem Aufruf an und befürchteten, dass die in der Entwicklung befindliche KI eine existenzielle Bedrohung für den Menschen darstellen könnte.

Der Betreff dieses Briefes ist:Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.(Die Verringerung des Risikos des Aussterbens von KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.)

Die Sponsoren sind Führungskräfte von drei führenden KI-Unternehmen: OpenAI-CEO Sam Altman, google DeepMind-CEO Demis Hassabis und Anthropic-CEO Dario Amodei. Weitere bemerkenswerte Namen auf der Liste sind Geoffrey Hinton und Yoshua Bengio, die „Paten“ der künstlichen Intelligenz.

Statement On Ai Risk Cais

Mehr als 350 KI-Führungskräfte, Forscher und Ingenieure beteiligen sich an dieser gemeinnützigen Organisation Zentrum für KI-Sicherheit Die von den Vereinigten Staaten initiierte gemeinsame Petition ist der Ansicht, dass das Risiko künstlicher Intelligenz, das zum Aussterben der Menschheit führen kann, als das gleiche soziale Risiko angesehen werden sollte wie Epidemien und Atomkriege. Heutzutage machen sich die Menschen zunehmend Sorgen darüber, dass Modelle der künstlichen Intelligenz wie ChatGPT eine Bedrohung für die Gesellschaft und die Arbeit darstellen könnten. Viele Menschen fordern eine vollständige Regulierung der KI-Industrie, da sie sonst der Gesellschaft irreparablen Schaden zufügen würde.

KI ist weiterhin auf dem Vormarsch, aber die behördliche Kontrolle hat noch nicht aufgeholt, was bedeutet, dass niemand sicher sein kann, dass KI-Tools und ihre Verwendung sicher sind. Letzte Woche schlugen zwei Führungskräfte, Sam Altman und OpenAI, vor, eine internationale Organisation ähnlich der Internationalen Atomenergiebehörde zu gründen, um die KI zu überwachen. Sie riefen international führende Unternehmen für künstliche Intelligenz zur Zusammenarbeit auf und forderten die Regierung auf, die Aufsicht über die Entwicklung von künstlicher Intelligenz zu verstärken. Spitzenunternehmen für künstliche Intelligenz.

Siehe auch  Diese US-Universität arbeitet mit OpenAI zusammen, um ChatGPT in die Klassenzimmer zu bringen

Tatsächlich kam es im März zu einer sechsmonatigen Aussetzung der KI-Forschunggemeinsames Unterschriftsschreiben, angeführt von Musk, forderte alle KI-Experimente auf, die Forschung an KI-Modellen, die fortgeschrittener als GPT-4 sind, sofort für mindestens sechs Monate auszusetzen, da die Geschwindigkeit des KI-Fortschritts zu alarmierend ist, die behördlichen Überprüfungsvorschriften jedoch nicht mitgehalten haben, was bedeutet Dieser Brief wurde von vielen bekannten Namen verliehen, darunter dem Turing-Award-Gewinner 2018 Yoshua Bengio, dem apple-Mitbegründer Steve Wozniak, dem Skype-Mitbegründer, dem Pinterest-Mitbegründer und dem CEO von Stability AI usw. Mit Unterstützung von Technologiegiganten erreichte die Zahl der Unterschriften vor Ablauf der Frist 1.125. Das gemeinsame Unterschriftenschreiben wird wie folgt übersetzt, damit die Leser darauf verweisen können, worüber sich diese Technologiegiganten Sorgen machen.

Künstliche Intelligenz verfügt über die Intelligenz, mit dem Menschen zu konkurrieren, und kann erhebliche Risiken für die Gesellschaft und den Menschen mit sich bringen. Dies wurde durch eine Vielzahl von Studien bestätigt und von führenden KI-Laboren anerkannt. Wie es in den KI-Prinzipien von Asilomar heißt, könnte fortschrittliche KI eine große Veränderung des Lebens auf der Erde darstellen und sollte mit gleicher Aufmerksamkeit und Ressourcenplanung bewältigt werden.

Selbst in den letzten Monaten haben KI-Labore immer leistungsfähigere digitale Köpfe entwickelt und in einem außer Kontrolle geratenen Rennen eingesetzt, das niemand verstehen, vorhersagen oder zuverlässig kontrollieren kann, nicht einmal ihre Schöpfer. Damit moderne KI-Systeme bei alltäglichen Aufgaben mit Menschen konkurrieren können, müssen wir uns fragen:

  • Sollte es Maschinen erlaubt sein, Informationskanäle zu überfluten und Propaganda und Lügen zu verbreiten?
  • Sollten alle Jobs automatisiert werden, auch die erfüllenden?
  • Sollten wir einen nichtmenschlichen Geist entwickeln, der uns irgendwann übertreffen könnte?
  • Sollten wir das Risiko eingehen, dass die Zivilisation außer Kontrolle gerät?

Diese Entscheidungen sollten nicht von nicht gewählten Technologieführern getroffen werden. Wir entwickeln nur dann leistungsstarke KI-Systeme, wenn wir davon überzeugt sind, dass die Auswirkungen des KI-Systems positiv und die Risiken beherrschbar sind. Dieses Vertrauen muss fundiert sein und mit zunehmenden potenziellen Auswirkungen auf das System gestärkt werden. In der jüngsten Erklärung von OpenAI zur künstlichen Intelligenz heißt es: „Irgendwann kann es notwendig sein, eine unabhängige Überprüfung einzuholen, bevor mit dem Trainieren des Systems begonnen wird, und für fortgeschrittene wissenschaftliche Unternehmungen ist es notwendig, die rechnerische Wachstumsrate zu begrenzen, mit der neue Modelle erstellt werden.“ „Wir sind uns einig, und jetzt ist dieser Moment gekommen.

Fordern Sie alle KI-Labore auf, die Entwicklung sofort für mindestens sechs Monate auszusetzen und keine KI-Systeme zu trainieren, die leistungsfähiger als GPT-4 sind. Die Sperrung sollte öffentlich und überprüfbar sein, auch bei allen wichtigen Akteuren. Wenn ein schnelles Moratorium nicht möglich ist, sollte die Regierung eingreifen und ein Moratorium verhängen.

KI-Labore und unabhängige Experten sollten die Ausfallzeit nutzen, um gemeinsam fortschrittliche KI-Design- und Entwicklungssicherheitsprotokolle zu entwickeln, die dann von unabhängigen externen Experten streng überprüft und überwacht werden. Vereinbarungen sollten sicherstellen, dass Compliance-Systeme zweifelsfrei sicher sind. Dies bedeutet keine Pause in der KI-Entwicklung, sondern nur einen Schritt zurück im immer gefährlicheren Wettlauf hin zu größeren und unvorhersehbareren Black-Box-Modellen und neuen Fähigkeiten.

Die KI-Forschung und -Entwicklung sollte sich auf die Verbesserung der Genauigkeit, Sicherheit, Erklärbarkeit, Transparenz, Robustheit, Vertrauenswürdigkeit und Loyalität bestehender fortschrittlicher Systeme konzentrieren.

Gleichzeitig müssen KI-Entwickler mit politischen Entscheidungsträgern zusammenarbeiten, um die Entwicklung von KI-Managementsystemen zu beschleunigen. Folgende Bedingungen müssen mindestens erfüllt sein:

  • Ein neuer leistungsstarker Regler für KI
  • Überwachung und Verfolgung Leistungsstarkes KI-System und großer Pool an Rechenleistung
  • Unterscheiden Sie zwischen realen und synthetischen Inhalten, verfolgen Sie die Herkunft von Modellen und Wasserzeichensysteme
  • Robustes Überprüfungs- und Zertifizierungssystem; wie man für durch KI verursachte Schäden zur Verantwortung gezogen werden kann
  • KI-Sicherheitsforschung wird ausreichend öffentlich finanziert
  • Erfahrene Institutionen, die sich mit KI befassen, führen zu massiven wirtschaftlichen und politischen Veränderungen, insbesondere in Demokratien

Mit Hilfe von KI können die Menschen eine glänzende Zukunft genießen. Nachdem wir erfolgreich leistungsstarke KI-Systeme entwickelt haben, können wir nun einen KI-Sommer genießen, die Früchte ernten, diese Systeme zum Wohle aller nutzen und der Gesellschaft eine Chance geben, sich anzupassen.

Die Gesellschaft hat angesichts anderer Technologien mit möglicherweise katastrophalen Auswirkungen auf die Pause-Taste gedrückt. Wir können das Gleiche tun: Genießen wir den langen KI-Sommer, anstatt unvorbereitet in den Herbst zu stürzen.

(Dieser Artikel wird gesponsert von Lieber Fan Zum Nachdruck berechtigt; Quelle des ersten Bildes:Zentrum für KI-Sicherheit

Siehe auch  Legen Sie Ihre ChatGPT-Einstellungen fest und diese werden für zukünftige Antworten gespeichert

Weiterführende Literatur:


Neue Erkenntnisse aus Wissenschaft und Technik, die von Zeit zu Zeit aktualisiert werden


[ad_2]

4.9/5 - (20 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein