Sam Altman, der Chef von OpenAI, sprach sich dagegen aus „Strenge Vorschriften“ der künstlichen Intelligenz (KI), die ihre Entwicklung behindern könnte, unterstreicht jedoch die Notwendigkeit einer langfristigen institutionellen Überwachung.
Letzten Monat teilte der Anführer, dessen Unternehmen hinter ChatGPT steht, vor einem US-Parlamentsausschuss mit, dass staatliche Eingriffe zur Regulierung der KI erforderlich seien “ zentral „ um die mit dieser Technologie verbundenen Risiken zu begrenzen.
Diese Woche sprach Sam Altman an der Universität Tel Aviv. Er erklärte, dass es bei seiner Forderung nach KI-Aufsicht nicht um die heutigen Systeme gehe. „Ich denke, es wäre ein Fehler, diesen Bereich streng zu regulieren oder zu versuchen, diese unglaubliche Innovation zu bremsen.“erklärte er.
Aber die Gefahr eines Missbrauchs der Superintelligenz sei real, räumte er ein. Es ist „Etwas, mit dem wir uns im nächsten Jahrzehnt möglicherweise auseinandersetzen müssen und das den Institutionen der Welt nicht viel Zeit lässt, sich anzupassen.“.
Er schlug erneut die Gründung einer internationalen Organisation vor, die Rechenleistung und technische Werkzeuge zur Schaffung nutzen würde „ein Rahmen (…), der Lizenzen für Schnittstellen für künstliche Intelligenz vergibt, um deren Sicherheitssystem zu überprüfen und ihnen Tests zum Bestehen anzubieten“. Dies sei eine Möglichkeit, mit dem Risiko umzugehen, dass künstliche Intelligenzen von ihrem ursprünglichen Einsatz abgelenkt werden, sagte er und schätzte dieses Risiko ein “ sehr ernst „. „Dasselbe machen wir auch für die Kernenergie“begründete er mit dem Beispiel der Internationalen Atomenergiebehörde (IAEA).
Der Besuch des Chefs von OpenAI in Israel ist Teil einer internationalen Tour, die darauf abzielt, die Menschen über die Nutzung von OpenAI durch die breite Öffentlichkeit und Unternehmen zu informieren.