OpenAI richtet nach eigenen Angaben einen neuen Sicherheitsausschuss ein und hat mit dem Training eines neuen künstlichen Intelligenzmodells begonnen, um das GPT-4-System zu ersetzen, das seinem Chatbot chatgpt zugrunde liegt.

OpenAI gibt an, ein Komitee für Sicherheit und Schutz einzurichten, und hat mit dem Training eines neuen KI-Modells begonnen, um das GPT-4-System zu ersetzen, das seinem Chatbot ChatGPT zugrunde liegt.

Das Startup aus San Francisco erklärte am Dienstag in einem Blog-Beitrag, dass das Komitee den gesamten Vorstand bei „kritischen Sicherheitsentscheidungen“ für seine Projekte und seinen Betrieb beraten werde.

Der Sicherheitsausschuss tagt zu einem Zeitpunkt, an dem die Debatte um die KI-Sicherheit im Unternehmen tobt. Diese geriet ins Rampenlicht, nachdem der Forscher Jan Leike zurückgetreten war und OpenAI dafür kritisiert hatte, dass die Sicherheit „hinter glänzenden Produkten zurückstehen“ müsse. OpenAI-Mitbegründer und Chefwissenschaftler Ilya Sutskever trat ebenfalls zurück und das Unternehmen löste das „Superalignment“-Team auf, das sich auf KI-Risiken konzentrierte und das sie gemeinsam geleitet hatten.

Leike sagte am Dienstag, er werde sich dem konkurrierenden KI-Unternehmen Anthropic anschließen, das von ehemaligen OpenAI-Führungskräften gegründet wurde, um dort „die Mission der Superausrichtung fortzusetzen“.

OpenAI sagte, es habe „kürzlich mit dem Training seines nächsten Pioniermodells begonnen“ und seine KI-Modelle seien in puncto Leistungsfähigkeit und Sicherheit branchenführend, erwähnte die Kontroverse jedoch nicht. „Wir begrüßen eine lebhafte Debatte in diesem wichtigen Moment“, sagte das Unternehmen.

KI-Modelle sind Vorhersagesysteme, die anhand riesiger Datensätze trainiert werden, um auf Abruf Texte, Bilder, Videos und menschliche Konversationen zu generieren. Frontier-Modelle sind die leistungsstärksten und modernsten KI-Systeme.

Siehe auch  Laut OpenAI stimmte Musk zu, dass der ChatGPT-Hersteller ein gewinnorientiertes Unternehmen werden sollte

Die erste Aufgabe des Ausschusses wird es sein, die Prozesse und Sicherheitsvorkehrungen von OpenAI zu bewerten und weiterzuentwickeln und dem Vorstand innerhalb von 90 Tagen seine Empfehlungen vorzulegen. Das Unternehmen sagte, es werde die Empfehlungen, die es annimmt, dann öffentlich machen, „in einer Weise, die mit Sicherheit und Schutz vereinbar ist“.

——

Associated Press und OpenAI verfügen über eine Lizenz- und Technologievereinbarung, die OpenAI Zugriff auf einen Teil der Textarchive von AP gewährt.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein