Heute erschien ein wichtiger offener Brief im Bereich KI.

350 KI-Behörden, darunter der „Vater von chatgpt“ Sam Altman, unterzeichneten den gemeinsamen offenen Brief und äußerten ihre Besorgnis darüber, dass die derzeit in der Entwicklung befindliche KI-Technologie eine existenzielle Bedrohung für den Menschen darstellen könnte.

Der Brief enthielt nur eine Aussage:Die Verringerung des Risikos des Aussterbens von KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.

Machen Sie mit bei der Unterschrift des offenen Briefes 🔗 https://www.safe.ai/statement-on-ai-risk

Zu den Unterzeichnern gehören drei führende Führungskräfte von KI-Unternehmen:

  • OpenAI-CEO Sam Altman;
  • Demis Hassabis, CEO von google DeepMind;
  • Dario Amodei, CEO von Anthropic;

Noch wichtiger ist, dass mit Geoffrey Hinton und Yoshua Bengio zwei „Paten“ der künstlichen Intelligenz auf der Liste stehen.

Mehr als 350 Führungskräfte, Forscher und Ingenieure, die sich mit künstlicher Intelligenz befassen, haben den offenen Brief der gemeinnützigen Organisation Artificial Intelligence Safety Center unterzeichnet und argumentiert, dass künstliche Intelligenz das Risiko der Ausrottung der Menschheit birgt und als mit Epidemien verbunden angesehen werden sollte. Gesellschaftlich Risiko gleich einem Atomkrieg.

Es besteht wachsende Besorgnis über die potenzielle Bedrohung für Gesellschaft und Beschäftigung, die die Entwicklung von Modellen für künstliche Intelligenz wie ChatGPT darstellen könnte, und viele fordern eine stärkere Regulierung der KI-Branche, die andernfalls irreparablen Schaden für die Gesellschaft verursachen würde.

Die KI ist weiterhin auf dem Vormarsch, aber die entsprechenden Überwachungs- und Prüfungsmethoden haben nicht Schritt gehalten, was bedeutet, dass niemand die Sicherheit von KI-Tools und den Prozess der Verwendung von KI-Tools garantieren kann.

Letzte Woche schlugen Sam Altman und zwei weitere OpenAI-Führungskräfte die Gründung einer internationalen Organisation wie der Internationalen Atomenergiebehörde vor, um die Entwicklung von KI sicher zu überwachen. Er forderte führende internationale Hersteller künstlicher Intelligenz zur Zusammenarbeit auf und forderte die Regierung auf, die Kontrollvorschriften zu stärken von führenden Herstellern künstlicher Intelligenz.

Siehe auch  ChatGPT prognostiziert einen Anstieg um 400 % auf 3 US-Dollar, hier erfahren Sie, wann

Tatsächlich verbreitete sich bereits im März ein offener Brief, in dem es darum ging, die KI-Forschung für sechs Monate zu stoppen, im gesamten Internet.

Der Brief forderte alle KI-Experimente auf, die Forschung an KI-Modellen, die fortgeschrittener als GPT-4 sind, sofort für mindestens sechs Monate auszusetzen, um diese schrecklichen Fantasien in ihren Kinderschuhen zu töten.

Die Geschwindigkeit des KI-Fortschritts ist erstaunlich, aber die entsprechenden Überwachungs- und Prüfungsmethoden haben nicht mitgehalten, was bedeutet, dass niemand die Sicherheit von KI-Tools und den Prozess der Verwendung von KI-Tools garantieren kann.

Elonmusk Spacex Reuters

Der gemeinsame Brief wurde von vielen bekannten Persönlichkeiten unterzeichnet, darunter dem Gewinner des Turing Award 2018, Yoshua Bengio, Musk, Steve Wozniak, Skype-Mitbegründer, Pinterest-Mitbegründer, CEO von Stability AI usw., der Anzahl der Mitunterzeichner hat vor Ablauf der Frist 1125 erreicht.

Der Originaltext des offenen Briefes lautet wie folgt:

Künstliche Intelligenz, deren Intelligenz mit der des Menschen mithalten kann, kann erhebliche Risiken für die Gesellschaft und die Menschheit mit sich bringen, was bereits ausführlich untersucht wurde [1] Von führenden KI-Laboren bewährt und empfohlen [2]. Wie es in den weithin anerkannten Asilomar-KI-Prinzipien heißt, könnte fortschrittliche KI einen großen Wandel in der Geschichte des Lebens auf der Erde darstellen und sollte daher mit entsprechender Aufmerksamkeit und Ressourcen geplant und verwaltet werden.

Leider sind KI-Labore auch in den letzten Monaten in einen außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe verwickelt, die niemand verstehen, vorhersagen oder zuverlässig kontrollieren kann, selbst wenn die Entwickler dies auch nicht könnten.

Moderne KI-Systeme sind heute bei alltäglichen Aufgaben mit Menschen konkurrenzfähig [3]müssen wir uns fragen:

  • Sollten wir zulassen, dass Maschinen unsere Informationskanäle überfluten und Propaganda und Lügen verbreiten?
  • Sollten wir alle Jobs automatisieren, auch die zufriedenstellenden?
  • Sollten wir einen nichtmenschlichen Geist entwickeln, der uns irgendwann übertreffen und ersetzen könnte?
  • Sollten wir das Risiko eingehen, dass die Zivilisation außer Kontrolle gerät?
Siehe auch  McDonald's verlässt Russland wegen des Ukraine-Krieges endgültig

Diese Entscheidungen sollten nicht von nicht gewählten Technologieführern getroffen werden. Erst wenn wir überzeugt sind, dass die Auswirkungen des KI-Systems positiv sind und die Risiken beherrschbar sind, sollten wir leistungsstarke KI-Systeme entwickeln. Dieses Vertrauen muss fundiert sein und wächst mit den potenziellen Auswirkungen des Systems. In der jüngsten Erklärung von OpenAI zur künstlichen Intelligenz heißt es: „Irgendwann kann es notwendig sein, eine unabhängige Überprüfung einzuholen, bevor mit dem Training zukünftiger Systeme begonnen wird, und sich auf den neuesten Stand der Technik zu einigen, um die Wachstumsrate der für die Erstellung verwendeten Berechnungen zu begrenzen.“ neue Modelle.“ Wir sind uns einig. Jetzt ist dieser Moment.

Daher fordern wir ein sofortiges Moratorium für alle KI-Labore für mindestens 6 Monate, um KI-Systeme zu trainieren, die leistungsfähiger als GPT-4 sind. Diese Sperre sollte öffentlich und überprüfbar sein und alle wichtigen Akteure einbeziehen. Wenn ein solches Moratorium nicht schnell umgesetzt werden kann, sollte die Regierung eingreifen und ein Moratorium verhängen.

KI-Labore und unabhängige Experten sollten diese Pause nutzen, um gemeinsam an der Entwicklung und Implementierung eines gemeinsamen Satzes fortschrittlicher KI-Design- und Entwicklungssicherheitsprotokolle zu arbeiten, die von unabhängigen externen Experten streng überprüft und überwacht werden sollten.

Diese Protokolle sollten sicherstellen, dass die ihnen unterliegenden Systeme über jeden Zweifel hinaus sicher sind [4]. Dies bedeutet nicht, die KI-Entwicklung anzuhalten, sondern einfach einen Schritt zurückzutreten vom immer gefährlicheren Wettlauf hin zu größeren, unvorhersehbaren Black-Box-Modellen und ihren neuen Fähigkeiten.

Die KI-Forschung und -Entwicklung sollte sich auf die Verbesserung der Genauigkeit, Sicherheit, Erklärbarkeit, Transparenz, Robustheit, Ausrichtung, Vertrauenswürdigkeit und Loyalität bestehender robuster, fortschrittlicher Systeme konzentrieren.

Siehe auch  Japan: Die Gewinnerin eines renommierten Literaturpreises gab zu, dass ChatGPT ihr geholfen hat

Gleichzeitig müssen KI-Entwickler mit politischen Entscheidungsträgern zusammenarbeiten, um die Entwicklung von KI-Governancesystemen drastisch zu beschleunigen. Dazu sollten mindestens gehören:

  • Eine neue, kompetente Regulierungsbehörde, die sich der KI widmet;
  • Überwachung und Verfolgung von KI-Systemen mit hoher Kapazität und großen Pools an Rechenleistung;
  • Provenienz- und Wasserzeichensysteme zur Unterscheidung echter von synthetischen Inhalten und zur Verfolgung von Modelllecks;
  • Robustes Audit- und Zertifizierungsökosystem; Verantwortung für durch KI verursachte Schäden;
  • Angemessene öffentliche Finanzierung der technischen KI-Sicherheitsforschung;
  • Erfahrene Institution, die sich mit den massiven wirtschaftlichen und politischen Veränderungen befasst, die KI verursachen wird, insbesondere mit den Auswirkungen auf Demokratien.

Mit Hilfe von KI kann die Menschheit eine erfolgreiche Zukunft genießen. Nachdem es uns gelungen ist, leistungsstarke KI-Systeme zu schaffen, können wir nun einen „KI-Sommer“ genießen, in dem wir die Früchte ernten, die sich daraus ergeben, dass wir diese Systeme explizit zum Nutzen aller einsetzen und der Gesellschaft eine Chance zur Anpassung geben.

Die Gesellschaft hat angesichts anderer Technologien, die katastrophale Auswirkungen auf die Gesellschaft haben könnten, auf die Pause-Taste gedrückt [5]. Hier können wir das Gleiche tun. Genießen wir einen langen KI-Sommer, anstatt unvorbereitet in den Herbst zu stürzen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein