Die potenziellen Gefahren generativer KI bereiten der Öffentlichkeit, der Politik und der KI-Forschung Sorge.
OpenAI hat seinen internen Sicherheitsprozess erweitert, um der Bedrohung durch schädliche künstliche Intelligenz (KI) zu begegnen, da Regierungen versuchen, gegen die Technologie vorzugehen.
Das Start-up, das über seinen äußerst erfolgreichen Chatbot chatgpt verfügt und von Microsoft unterstützt wird, kündigte an, ein spezielles Team zur Überwachung der technischen Arbeit und eine Betriebsstruktur einzurichten, die es dem Vorstand auch ermöglicht, Sicherheitsentscheidungen rückgängig zu machen.
„Wir bilden eine funktionsübergreifende Sicherheitsberatungsgruppe, die alle Berichte prüft und sie gleichzeitig an die Führung und den Vorstand sendet. Während die Führung die Entscheidungsträger ist, hat der Vorstand das Recht, Entscheidungen rückgängig zu machen“, sagte das Unternehmen am Montag auf seiner Website.
Das Unternehmen aktualisierte seinen „Vorsorgerahmen“ und erklärte, dass es auch in sorgfältige Fähigkeitsbewertungen und Prognosen investieren werde, um aufkommende Risiken besser erkennen zu können. Es hieß auch, dass die „Scorecards“ für ihre Modelle kontinuierlich aktualisiert würden.
„Wir werden alle unsere Grenzmodelle evaluieren, auch bei jeder effektiven Rechenleistungssteigerung um das Doppelte während der Trainingsläufe. „Wir werden Modelle an ihre Grenzen bringen“, sagte OpenAI.
Die potenziellen Gefahren der Technologie geben der Öffentlichkeit, Politikern und KI-Forschern Anlass zur Sorge, da generative KI Desinformation verbreiten kann.
OpenAI, das wertvollste Start-up in den Vereinigten Staaten, geriet im November in Aufruhr, als sein Mitbegründer und CEO Sam Altman aus dem Vorstand entfernt wurde und die Mehrheit der Mitarbeiter des Unternehmens damit drohte, zu kündigen, sofern er nicht wieder eingestellt würde.
Mehrere Tage bevor Altman aus dem Vorstand entlassen wurde, schrieben mehrere Mitarbeiterforscher einen Brief an den Vorstand, in dem sie vor einer mächtigen KI-Entdeckung warnten, die die Menschheit bedrohen könnte, berichtete Reuters im November unter Berufung auf zwei mit der Angelegenheit vertraute Personen.
Regierungen auf der ganzen Welt beginnen, die Technologie zu regulieren, wobei die Europäische Union als erste einem KI-Regelwerk zustimmt.