New York:
Der ChatGPT-Hersteller OpenAI hat am Montag seine neuesten Richtlinien zur Messung „katastrophaler Risiken“ durch künstliche Intelligenz in Modellen veröffentlicht, die derzeit entwickelt werden.
Die Ankündigung erfolgt einen Monat, nachdem der Vorstand des Unternehmens CEO Sam Altman entlassen hatte, um ihn einige Tage später wieder einzustellen, als Mitarbeiter und Investoren rebellierten.
Laut US-Medien hatten Vorstandsmitglieder Sam Altman dafür kritisiert, dass er die beschleunigte Entwicklung von OpenAI befürworte, auch wenn dies bedeutete, bestimmte Fragen zu den möglichen Risiken seiner Technologie zu umgehen.
In einem am Montag veröffentlichten „Preparedness Framework“ stellt das Unternehmen fest: „Wir glauben, dass die wissenschaftliche Untersuchung katastrophaler Risiken durch KI weit hinter dem zurückgeblieben ist, was wir erreichen müssen.“
Der Rahmen soll „dazu beitragen, diese Lücke zu schließen“, heißt es darin.
Ein im Oktober angekündigtes Überwachungs- und Evaluierungsteam wird sich auf „Grenzmodelle“ konzentrieren, die derzeit entwickelt werden und über Fähigkeiten verfügen, die der fortschrittlichsten KI-Software überlegen sind.
Das Team bewertet jedes neue Modell und ordnet ihm in vier Hauptkategorien eine Risikostufe von „gering“ bis „kritisch“ zu.
Dem Framework zufolge können nur Modelle mit einem Risikowert von „mittel“ oder darunter eingesetzt werden.
Die erste Kategorie betrifft die Cybersicherheit und die Fähigkeit des Modells, groß angelegte Cyberangriffe durchzuführen.
Der zweite Test wird die Fähigkeit der Software messen, zur Entstehung einer chemischen Mischung, eines Organismus (z. B. eines Virus) oder einer Atomwaffe beizutragen, die alle für den Menschen schädlich sein könnten.
Die dritte Kategorie betrifft die Überzeugungskraft des Modells, beispielsweise das Ausmaß, in dem es menschliches Verhalten beeinflussen kann.
Die letzte Risikokategorie betrifft die potenzielle Autonomie des Modells, insbesondere die Frage, ob es sich der Kontrolle der Programmierer entziehen kann, die es erstellt haben.
Sobald die Risiken identifiziert wurden, werden sie der Safety Advisory Group von OpenAI vorgelegt, einem neuen Gremium, das Empfehlungen an Sam Altman oder eine von ihm ernannte Person richtet.
Der Leiter von OpenAI entscheidet dann über etwaige Änderungen an einem Modell, um die damit verbundenen Risiken zu reduzieren.
Der Vorstand wird auf dem Laufenden gehalten und kann eine Entscheidung des Managements außer Kraft setzen.
(Mit Ausnahme der Überschrift wurde dieser Artikel nicht von NDTV-Mitarbeitern bearbeitet und wird über einen syndizierten Feed veröffentlicht.)