Moskau. 20. Juni. INTERFAX.RU – Ilya Sutskever, Mitbegründer des amerikanischen Unternehmens OpenAI, das den chatgpt-Chatbot entwickelt hat, und einer der weltweit führenden Experten für maschinelles Lernen und künstliche Intelligenz (KI), gründete das KI-Startup Safe Superintelligence Inc., schreibt ^ „Finanzielle Zeiten“.

Dies geschieht nur einen Monat nach seinem Ausscheiden aus OpenAI, wo er als leitender wissenschaftlicher Berater tätig war, im Vorstand tätig war und eine große Rolle bei deren frühen Aufstieg zu einer führenden Position im generativen Bereich spielte.Erstellung von Inhalten und Verwendung in ChatGPT – IF) II.

„Die Entwicklung sicherer Superintelligenz (SSI) ist die wichtigste technische Herausforderung unserer Zeit“ es sagt auf der Website des neuen Unternehmens. – Wir haben das erste Labor der Welt eröffnet, das sich ausschließlich mit SSI befasst. Sie hat ein Ziel und ein Produkt – sichere Superintelligenz (KI mit menschlichen kognitiven Fähigkeiten – IF)“.

Das Geschäftsmodell von Safe Superintelligence besteht darin, Sicherheits- und Entwicklungsziele vom kurzfristigen kommerziellen Druck zu isolieren, heißt es auf der Website.

Das Unternehmen ist in den USA registriert und verfügt über Niederlassungen in Palo Alto und Tel Aviv.

Zusammen mit Sutzkever wurde es von einem weiteren ehemaligen OpenAI-Mitarbeiter, Daniel Levy, sowie dem KI-Investor und Unternehmer Daniel Gross gegründet, der als Partner im Startup-Inkubator Y Combinator arbeitete, der vom derzeitigen OpenAI-Chef Sam Altman geleitet wurde.

Gross ist unter anderem an GitHub, Instacart, Perplexity.ai, Character.ai und CoreWeave beteiligt.

Die Investoren von Safe Superintelligence werden nicht bekannt gegeben.

Sutskever befand sich Ende letzten Jahres im Zentrum eines Skandals, als Altman als Chef von OpenAI zurücktrat. Die Medien nannten ihn einen der Hauptinitiatoren der Entscheidung des Vorstands des Unternehmens, Altman zu entlassen, der eine Woche später aufgrund der Empörung von Aktionären und Partnern auf seinen Posten zurückkehrte. Die Zusammensetzung des Vorstands änderte sich; Sutskever wurde darin nicht berücksichtigt. Im Mai gab er seinen Abschied von OpenAI bekannt und kündigte die Gründung eines neuen Projekts an.

Siehe auch  Offene KI: Russische Einfluss- und Propagandanetzwerke nutzten ChatGPT, um Inhalte zu erstellen. Auch Israel, China und Iran wurden erwähnt

Im Jahr 2021 gründete ein weiterer ehemaliger OpenAI-Mitarbeiter, der dort für die KI-Sicherheit zuständig war, das Startup Anthropic. Laut FT-Quellen hat Anthropic 4 Milliarden US-Dollar von Amazon und Hunderte Millionen weitere von Risikokapitalinvestoren eingesammelt, mit einer Gesamtbewertung des Unternehmens von mehr als 18 Milliarden US-Dollar.

Im Mai dieses Jahres gab Jan Leike, der bei OpenAI im selben Team wie Sutskever arbeitete, seinen Wechsel zu Anthropic bekannt. Leike stellte fest, dass die Sicherheitskultur und -prozesse von OpenAI durch „raffinierte Produkte“ gewichen seien und dass seine Differenzen mit der Unternehmensleitung unlösbar seien.

OpenAI wurde 2015 als gemeinnütziges Forschungslabor mit dem Ziel gegründet, Superintelligenz oder Allzweck-KI (AGI) zu schaffen, die der Menschheit zugute kommt. Das Unternehmen eröffnete 2020 eine Geschäftseinheit, Altman sagte jedoch, dass es sich immer noch von dem Prinzip leiten lasse, zum Wohle der Menschheit zu arbeiten.

Anfang des Jahres verklagte der Milliardär und ehemalige OpenAI-Vorstandsmitglied Elon Musk sie, Altman und Firmenpräsident Gregory Brockman und warf ihnen unlautere Geschäftspraktiken vor.

„Unter dem neuen Vorstand hat sie (OpenAI – WENN) entwickelt nicht nur AII, sondern optimiert es auch, um Gewinne zu maximieren [инвестировавшей в нее $13 млрд] Microsoft und nicht zum Nutzen der Menschheit, heißt es in der Klageschrift des Milliardärs. – Seine Technologien, einschließlich [лежащую в основе ChatGPT модель] GPT-4 sind Closed-Source-Dateien, die in erster Linie Microsofts eigenen kommerziellen Interessen dienen.“

Laut Musk wurde der Vorstand von OpenAI unter Beteiligung von Microsoft aktualisiert, das auf dem Rücktritt von Mitgliedern bestand, die Altmans Entlassung befürworteten. Der Konflikt zwischen Altman und dem vorherigen Vorstand stünde im Zusammenhang mit der Entwicklung von GPT-4 und der nächsten möglichen Version des AGI, die die öffentliche Sicherheit gefährden könnte, sagte der Milliardär.

Siehe auch  Sie können sich erneut für ChatGPT Plus anmelden, ohne dass eine Wartezeit erforderlich ist

Dank des Einflusses von Microsoft auf Altman und den Vorstand von OpenAI werden sie GPT-4 nicht als allgemeine künstliche Intelligenz deklarieren, was es der Technologie ermöglichen wird, geschlossen zu bleiben und davon zu profitieren, sagte Musk.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein