Moskau. 20. Juni. INTERFAX.RU – Ilya Sutskever, Mitbegründer des amerikanischen Unternehmens OpenAI, das den chatgpt-Chatbot entwickelt hat, und einer der weltweit führenden Experten für maschinelles Lernen und künstliche Intelligenz (KI), gründete das KI-Startup Safe Superintelligence Inc., schreibt ^ „Finanzielle Zeiten“.
Dies geschieht nur einen Monat nach seinem Ausscheiden aus OpenAI, wo er als leitender wissenschaftlicher Berater tätig war, im Vorstand tätig war und eine große Rolle bei deren frühen Aufstieg zu einer führenden Position im generativen Bereich spielte.Erstellung von Inhalten und Verwendung in ChatGPT – IF) II.
„Die Entwicklung sicherer Superintelligenz (SSI) ist die wichtigste technische Herausforderung unserer Zeit“ es sagt auf der Website des neuen Unternehmens. – Wir haben das erste Labor der Welt eröffnet, das sich ausschließlich mit SSI befasst. Sie hat ein Ziel und ein Produkt – sichere Superintelligenz (KI mit menschlichen kognitiven Fähigkeiten – IF)“.
Das Geschäftsmodell von Safe Superintelligence besteht darin, Sicherheits- und Entwicklungsziele vom kurzfristigen kommerziellen Druck zu isolieren, heißt es auf der Website.
Das Unternehmen ist in den USA registriert und verfügt über Niederlassungen in Palo Alto und Tel Aviv.
Zusammen mit Sutzkever wurde es von einem weiteren ehemaligen OpenAI-Mitarbeiter, Daniel Levy, sowie dem KI-Investor und Unternehmer Daniel Gross gegründet, der als Partner im Startup-Inkubator Y Combinator arbeitete, der vom derzeitigen OpenAI-Chef Sam Altman geleitet wurde.
Gross ist unter anderem an GitHub, Instacart, Perplexity.ai, Character.ai und CoreWeave beteiligt.
Die Investoren von Safe Superintelligence werden nicht bekannt gegeben.
Sutskever befand sich Ende letzten Jahres im Zentrum eines Skandals, als Altman als Chef von OpenAI zurücktrat. Die Medien nannten ihn einen der Hauptinitiatoren der Entscheidung des Vorstands des Unternehmens, Altman zu entlassen, der eine Woche später aufgrund der Empörung von Aktionären und Partnern auf seinen Posten zurückkehrte. Die Zusammensetzung des Vorstands änderte sich; Sutskever wurde darin nicht berücksichtigt. Im Mai gab er seinen Abschied von OpenAI bekannt und kündigte die Gründung eines neuen Projekts an.
Im Jahr 2021 gründete ein weiterer ehemaliger OpenAI-Mitarbeiter, der dort für die KI-Sicherheit zuständig war, das Startup Anthropic. Laut FT-Quellen hat Anthropic 4 Milliarden US-Dollar von Amazon und Hunderte Millionen weitere von Risikokapitalinvestoren eingesammelt, mit einer Gesamtbewertung des Unternehmens von mehr als 18 Milliarden US-Dollar.
Im Mai dieses Jahres gab Jan Leike, der bei OpenAI im selben Team wie Sutskever arbeitete, seinen Wechsel zu Anthropic bekannt. Leike stellte fest, dass die Sicherheitskultur und -prozesse von OpenAI durch „raffinierte Produkte“ gewichen seien und dass seine Differenzen mit der Unternehmensleitung unlösbar seien.
OpenAI wurde 2015 als gemeinnütziges Forschungslabor mit dem Ziel gegründet, Superintelligenz oder Allzweck-KI (AGI) zu schaffen, die der Menschheit zugute kommt. Das Unternehmen eröffnete 2020 eine Geschäftseinheit, Altman sagte jedoch, dass es sich immer noch von dem Prinzip leiten lasse, zum Wohle der Menschheit zu arbeiten.
Anfang des Jahres verklagte der Milliardär und ehemalige OpenAI-Vorstandsmitglied Elon Musk sie, Altman und Firmenpräsident Gregory Brockman und warf ihnen unlautere Geschäftspraktiken vor.
„Unter dem neuen Vorstand hat sie (OpenAI – WENN) entwickelt nicht nur AII, sondern optimiert es auch, um Gewinne zu maximieren [инвестировавшей в нее $13 млрд] Microsoft und nicht zum Nutzen der Menschheit, heißt es in der Klageschrift des Milliardärs. – Seine Technologien, einschließlich [лежащую в основе ChatGPT модель] GPT-4 sind Closed-Source-Dateien, die in erster Linie Microsofts eigenen kommerziellen Interessen dienen.“
Laut Musk wurde der Vorstand von OpenAI unter Beteiligung von Microsoft aktualisiert, das auf dem Rücktritt von Mitgliedern bestand, die Altmans Entlassung befürworteten. Der Konflikt zwischen Altman und dem vorherigen Vorstand stünde im Zusammenhang mit der Entwicklung von GPT-4 und der nächsten möglichen Version des AGI, die die öffentliche Sicherheit gefährden könnte, sagte der Milliardär.
Dank des Einflusses von Microsoft auf Altman und den Vorstand von OpenAI werden sie GPT-4 nicht als allgemeine künstliche Intelligenz deklarieren, was es der Technologie ermöglichen wird, geschlossen zu bleiben und davon zu profitieren, sagte Musk.