Die Popularität von ChatGPT und der Fortschritt der generativen KI-Technologie haben in der Tech-Community eine Debatte darüber ausgelöst, wie gefährlich die Technologie werden könnte.Anfang des Jahres warnten prominente KI-Führungskräfte von OpenAI, google und Microsoft, dass die Technologie eine existenzielle Gefahr für die Menschheit darstellen könnte, vergleichbar mit Pandemien oder Atomwaffen. Andere KI-Forscher sagten, die Konzentration auf diese großen, beängstigenden Risiken ermögliche es Unternehmen, davon abzulenkendie schädlichen Auswirkungen, die die Technologie bereits hat. Eine wachsende Gruppe von KI-Wirtschaftsführern sagt, die Risiken seien übertrieben, und Unternehmen sollten die Entwicklung der Technologie vorantreiben, um zur Verbesserung der Gesellschaft beizutragen – und damit Geld zu verdienen.
OpenAI hat in dieser Debatte einen Mittelweg gefundenin seiner öffentlichen Haltung. Vorstandsvorsitzender Sam Altman sagte, er glaube, dass die Technologie langfristig ernsthafte Risiken mit sich bringe, die Menschen sollten sich aber auch auf die Behebung aktueller Probleme konzentrieren. Eine Regulierung zur Verhinderung schädlicher Auswirkungen von KI sollte es kleineren Unternehmen nicht erschweren, im Wettbewerb zu bestehen, sagte Altman. Gleichzeitig drängte er das Unternehmen zur Kommerzialisierung seiner Technologie und sammelte Geld, um ein schnelleres Wachstum zu finanzieren.
Madry, eine erfahrene KI-Forscherin, die das Center for Deployable Machine Learning des MIT leitet und das MIT AI Policy Forum mitleitet, ist Anfang des Jahres OpenAI beigetreten. Er gehörte zu einer kleinen Gruppe von OpenAI-Führungskräften, die aufhörten, als Altman im November vom Vorstand des Unternehmens entlassen wurde. Madry kehrte zum Unternehmen zurück, als Altman fünf Tage später wieder eingestellt wurde. OpenAI, das von einem gemeinnützigen Vorstand geleitet wird, dessen Aufgabe es ist, die KI voranzutreiben und sie für alle Menschen hilfreich zu machen, ist mitten in der Auswahl neuer Vorstandsmitglieder, nachdem drei der vier Vorstandsmitglieder, die Altman entlassen hatten, im Zuge seiner Rückkehr zurückgetreten sind.
Trotz der „Turbulenzen“ in der Führung glaubt Madry, dass der Vorstand von OpenAI die Risiken der KI, die er erforscht, ernst nimmt. „Mir wurde klar, dass ich mich an ein Unternehmen wenden sollte, das dies tatsächlich tut, wenn ich wirklich gestalten möchte, wie sich KI auf die Gesellschaft auswirkt.“
Das Vorbereitungsteam stellt nationale Sicherheitsexperten außerhalb der KI-Welt ein, die dem Unternehmen helfen können, den Umgang mit großen Risiken zu verstehen. OpenAI beginnt Gespräche mit Organisationen wie der National Nuclear Security Administration, die die Nukleartechnologie in den Vereinigten Staaten überwacht, um sicherzustellen, dass das Unternehmen die Risiken von KI angemessen untersuchen kann, sagte Madry.
Das Team wird überwachen, wie und wann seine KI Menschen anweisen kann, Computer zu hacken oder gefährliche chemische, biologische und nukleare Waffen zu bauen, die über das hinausgehen, was Menschen durch regelmäßige Recherchen online finden können. Madry sucht nach Leuten, die „wirklich denken: ‚Wie kann ich mich mit diesem Regelwerk anlegen?‘“ Wie kann ich in meiner Bösartigkeit am genialsten sein?‘“
Das Unternehmen wird auch „qualifizierten, unabhängigen Dritten“ außerhalb von OpenAI gestatten, seine Technologie zu testen.hieß es in einem Blogbeitrag vom Montag.
Madry sagte, er sei mit der Debatte zwischen KI-„Doomern“, die befürchten, dass die Technologie bereits die Fähigkeit erlangt hat, die menschliche Intelligenz zu übertreffen, und „Beschleunigern“, die alle Hindernisse für die KI-Entwicklung beseitigen wollen, nicht einverstanden.
„Ich halte diese Darstellung von Beschleunigung und Verzögerung wirklich für äußerst simpel“, sagte er. „KI hat viele Vorteile, aber wir müssen auch daran arbeiten, sicherzustellen, dass die Vorteile tatsächlich realisiert werden und die Nachteile nicht.“