OpenAI sagte, es habe einen Sicherheitsausschuss unter der Leitung hochrangiger Führungskräfte eingerichtet, nachdem das vorherige Aufsichtsgremium Mitte Mai aufgelöst worden sei. Das neue Komitee werde dafür verantwortlich sein, dem OpenAI-Vorstand „kritische Entscheidungen zur Sicherheit und zum Schutz von OpenAI-Projekten und -Operationen“ zu empfehlen, sagte das Unternehmen.

Neuigkeiten zum neuen Gremium erschien nachdem der Entwickler chatgpt bekannt gegeben hatte, dass er mit dem Training seines „Modells der nächsten Generation“ begonnen hatte. Auf seinem Blog berichtet das Unternehmen gemeldetdass die Innovation „das Unternehmen auf dem Weg zu AGI oder künstlicher allgemeiner Intelligenz, einer Art von KI, die genauso intelligent oder sogar intelligenter als ein Mensch ist, auf ein neues Leistungsniveau bringen wird.“

Dem Sicherheitsausschuss gehören neben Altman auch Bret Taylor, Adam D'Angelo und Nicole Seligman an. Alle seien Mitglieder des Vorstands von OpenAI, heißt es in dem Blogbeitrag.

Die Bildung des neuen Aufsichtsausschusses erfolgt, nachdem OpenAI das vorherige Team aufgelöst hat, das sich auf langfristige Risiken im Zusammenhang mit KI konzentrierte. Zuvor gaben beide Teamleiter, OpenAI-Mitbegründer Ilya Sutskever und Schlüsselforscher Jan Leike, ihren Abschied von dem von Microsoft unterstützten Startup bekannt.

Leike schrieb Anfang des Monats, dass die „Sicherheitskultur und Geschäftspraktiken von OpenAI gegenüber seinen brillanten Produkten in den Hintergrund getreten sind“. Als Reaktion auf seinen Weggang erklärte Altman auf X, dass er traurig sei, Leike gehen zu sehen, und fügte hinzu, dass OpenAI noch „viel zu tun“ habe.

In den nächsten 90 Tagen werde das Sicherheitskomitee die Leistung von OpenAI bewerten und seine Empfehlungen dem Vorstand des Unternehmens mitteilen, heißt es in dem Blog. OpenAI wird zu einem späteren Zeitpunkt ein Update zu den akzeptierten Empfehlungen bereitstellen.

Siehe auch  US Space Force setzt KI-Projekte, einschließlich ChatGPT, aufgrund von Datensicherheitsrisiken aus – Reuters – Nachrichten auf UNN

Die Sicherheit von KI bleibt ein Diskussionsthema, da die großen Sprachmodelle hinter Anwendungen wie ChatGPT immer ausgefeilter werden. Entwickler von KI-Produkten fragen sich auch, wann AGI kommt und welche Risiken es mit sich bringt.

OpenAI stellte seine neue Technologie GPT-4o vor. Manche sagen, es werde viele Arbeitsplätze ersetzen. ChatGPT wurde gezeigt, wie einem Moderator beigebracht wurde, wie man ein Problem der linearen Algebra löst. Experten sagen, dass Personen, die in der Lehre oder Übersetzung tätig sind, solche Tools eher nutzen, als dass sie vollständig durch sie ersetzt werden.

Snippet Telegram

5/5 - (294 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein