DATEI – Das OpenAI-Logo wird auf einem Mobiltelefon mit einem Bild auf einem Computermonitor angezeigt, das vom Text-zu-Bild-Modell Dall-E von ChatGPT generiert wurde, 8. Dezember 2023 in Boston. Lya Sutskever, einer der Gründer von OpenAI, der an einem gescheiterten Versuch beteiligt war, CEO Sam Altman aus dem Amt zu drängen, sagte, er gründe ein auf Sicherheit ausgerichtetes Unternehmen für künstliche Intelligenz. Sutskever, ein angesehener KI-Forscher, der den ChatGPT-Hersteller letzten Monat verließ, sagte in einem Social-Media-Beitrag am Mittwoch, dem 19. Juni 2024, dass er mit zwei Mitbegründern Safe Superintelligence Inc. gründet. (AP Photo/Michael Dwyer, Datei)
The Associated Press (AP) — Ilya Sutskever, einer der Gründer von OpenAI, der an einem gescheiterten Versuch beteiligt war, CEO Sam Altman aus dem Amt zu drängen, hat angekündigt, dass er ein auf Sicherheit ausgerichtetes Unternehmen für künstliche Intelligenz gründen wird.
Sutskever, ein angesehener KI-Forscher, der den ChatGPT-Hersteller letzten Monat verließ, sagte am Mittwoch in einem Social-Media-Post, dass er zusammen mit zwei Mitbegründern Safe Superintelligence Inc. gegründet habe. Das einzige Ziel und der einzige Fokus des Unternehmens ist die sichere Entwicklung von „Superintelligenz“ – ein Hinweis auf KI-Systeme, die intelligenter sind als Menschen.
Das Unternehmen versicherte, es werde sich nicht durch „Management-Kosten oder Produktzyklen“ ablenken lassen und im Rahmen seines Geschäftsmodells würden die Arbeiten an Sicherheit und Schutz „von kurzfristigen kommerziellen Zwängen abgeschirmt“, erklärten Sutskever und seine Mitgründer Daniel Gross und Daniel Levy in einer vorbereiteten Stellungnahme.
Die drei sagten, Safe Superintelligence sei ein amerikanisches Unternehmen mit Wurzeln in Palo Alto, Kalifornien und Tel Aviv, „wo wir tiefe Wurzeln haben und die Fähigkeit, die besten technischen Talente zu rekrutieren.“
Sutskever war Teil einer Gruppe, die im vergangenen Jahr erfolglos versuchte, Altman zu verdrängen. Die Umstrukturierung des Vorstands, die Sutskever später bedauerte, führte auch zu einer Phase interner Unruhen, in der es darum ging, ob die Führungskräfte bei OpenAI Geschäftsmöglichkeiten gegenüber der Sicherheit von KI priorisierten.
Bei OpenAI war Sutskever Mitleiter eines Teams, das sich auf die sichere Entwicklung einer künstlichen Intelligenz konzentrierte, die besser ist als der Mensch und als sogenannte künstliche allgemeine Intelligenz (AGI) bekannt ist. Als er OpenAI verließ, sagte er, er habe Pläne für ein „für ihn sehr bedeutsames“ Projekt, gab aber keine Einzelheiten bekannt.
Sutskever sagte, es sei seine Entscheidung gewesen, OpenAI zu verlassen.
Wenige Tage nach seinem Weggang trat auch sein Team-Co-Leiter Jan Leike zurück und übte Kritik an OpenAI, weil die Sicherheit „hinter glänzenden Produkten zurückstehen“ müsse. OpenAI kündigte später die Gründung eines Sicherheitsausschusses an, der jedoch hauptsächlich aus Firmeninsidern besteht.
___
Associated Press und OpenAI verfügen über eine Lizenz- und Technologievereinbarung, die OpenAI Zugriff auf einen Teil der Textarchive von AP gewährt.