Start ChatGPT Der ChatGPT-Hersteller OpenAI legt einen Plan für den Umgang mit den Gefahren...
Der ChatGPT-Hersteller OpenAI legt einen Plan für den Umgang mit den Gefahren der KI vor

Der ChatGPT-Hersteller OpenAI legt einen Plan für den Umgang mit den Gefahren der KI vor

OpenAI, das Unternehmen für künstliche Intelligenz hinter chatgpt, legte seine Pläne dar, um den seiner Meinung nach ernsthaften Gefahren der von ihm entwickelten Technologie immer einen Schritt voraus zu sein, beispielsweise indem es böswilligen Akteuren ermöglicht wird, den Bau chemischer und biologischer Waffen zu erlernen.

Das „Preparedness“-Team von OpenAI unter der Leitung von MIT-KI-Professor Aleksander Madry wird KI-Forscher, Informatiker, nationale Sicherheitsexperten und Politikexperten einstellen, um seine Technologie zu überwachen, sie kontinuierlich zu testen und das Unternehmen zu warnen, wenn es glaubt, dass seine KI-Fähigkeiten schwächer werden gefährlich. Das Team sitzt zwischen dem „Safety Systems“-Team von OpenAI, das an bestehenden Problemen wie der Einflößung rassistischer Vorurteile arbeitetAI und das „Superalignment“-Team des Unternehmens, das erforscht, wie sichergestellt werden kann, dass KI den Menschen in einer imaginären Zukunft, in der die Technologie die menschliche Intelligenz völlig überholt hat, keinen Schaden zufügt.

Die Popularität von ChatGPT und der Fortschritt der generativen KI-Technologie haben in der Tech-Community eine Debatte darüber ausgelöst, wie gefährlich die Technologie werden könnte.Anfang des Jahres warnten prominente KI-Führungskräfte von OpenAI, google und Microsoft, dass die Technologie eine existenzielle Gefahr für die Menschheit darstellen könnte, vergleichbar mit Pandemien oder Atomwaffen. Andere KI-Forscher sagten, die Konzentration auf diese großen, beängstigenden Risiken ermögliche es Unternehmen, davon abzulenkendie schädlichen Auswirkungen, die die Technologie bereits hat. Eine wachsende Gruppe von KI-Wirtschaftsführern sagt, die Risiken seien übertrieben, und Unternehmen sollten die Entwicklung der Technologie vorantreiben, um zur Verbesserung der Gesellschaft beizutragen – und damit Geld zu verdienen.

Siehe auch  Innovation: Wenn ChatGPT „Halluzinationen“ hervorruft, schädigt es den Ruf einzelner Personen

OpenAI hat in dieser Debatte einen Mittelweg gefundenin seiner öffentlichen Haltung. Vorstandsvorsitzender Sam Altman sagte, er glaube, dass die Technologie langfristig ernsthafte Risiken mit sich bringe, die Menschen sollten sich aber auch auf die Behebung aktueller Probleme konzentrieren. Eine Regulierung zur Verhinderung schädlicher Auswirkungen von KI sollte es kleineren Unternehmen nicht erschweren, im Wettbewerb zu bestehen, sagte Altman. Gleichzeitig drängte er das Unternehmen zur Kommerzialisierung seiner Technologie und sammelte Geld, um ein schnelleres Wachstum zu finanzieren.

Madry, eine erfahrene KI-Forscherin, die das Center for Deployable Machine Learning des MIT leitet und das MIT AI Policy Forum mitleitet, ist Anfang des Jahres OpenAI beigetreten. Er gehörte zu einer kleinen Gruppe von OpenAI-Führungskräften, die aufhörten, als Altman im November vom Vorstand des Unternehmens entlassen wurde. Madry kehrte zum Unternehmen zurück, als Altman fünf Tage später wieder eingestellt wurde. OpenAI, das von einem gemeinnützigen Vorstand geleitet wird, dessen Aufgabe es ist, die KI voranzutreiben und sie für alle Menschen hilfreich zu machen, ist mitten in der Auswahl neuer Vorstandsmitglieder, nachdem drei der vier Vorstandsmitglieder, die Altman entlassen hatten, im Zuge seiner Rückkehr zurückgetreten sind.

Trotz der „Turbulenzen“ in der Führung glaubt Madry, dass der Vorstand von OpenAI die Risiken der KI, die er erforscht, ernst nimmt. „Mir wurde klar, dass ich mich an ein Unternehmen wenden sollte, das dies tatsächlich tut, wenn ich wirklich gestalten möchte, wie sich KI auf die Gesellschaft auswirkt.“

Das Vorbereitungsteam stellt nationale Sicherheitsexperten außerhalb der KI-Welt ein, die dem Unternehmen helfen können, den Umgang mit großen Risiken zu verstehen. OpenAI beginnt Gespräche mit Organisationen wie der National Nuclear Security Administration, die die Nukleartechnologie in den Vereinigten Staaten überwacht, um sicherzustellen, dass das Unternehmen die Risiken von KI angemessen untersuchen kann, sagte Madry.

Siehe auch  „Nuha“ – der erste von ChatGPT betriebene Hospitality-Concierge der VAE

Das Team wird überwachen, wie und wann seine KI Menschen anweisen kann, Computer zu hacken oder gefährliche chemische, biologische und nukleare Waffen zu bauen, die über das hinausgehen, was Menschen durch regelmäßige Recherchen online finden können. Madry sucht nach Leuten, die „wirklich denken: ‚Wie kann ich mich mit diesem Regelwerk anlegen?‘“ Wie kann ich in meiner Bösartigkeit am genialsten sein?‘“

Das Unternehmen wird auch „qualifizierten, unabhängigen Dritten“ außerhalb von OpenAI gestatten, seine Technologie zu testen.hieß es in einem Blogbeitrag vom Montag.

Madry sagte, er sei mit der Debatte zwischen KI-„Doomern“, die befürchten, dass die Technologie bereits die Fähigkeit erlangt hat, die menschliche Intelligenz zu übertreffen, und „Beschleunigern“, die alle Hindernisse für die KI-Entwicklung beseitigen wollen, nicht einverstanden.

„Ich halte diese Darstellung von Beschleunigung und Verzögerung wirklich für äußerst simpel“, sagte er. „KI hat viele Vorteile, aber wir müssen auch daran arbeiten, sicherzustellen, dass die Vorteile tatsächlich realisiert werden und die Nachteile nicht.“

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein