Laut einem ehemaligen Vorstandsmitglied erfuhr der Vorstand von OpenAI erst von der Einführung von chatgpt, nachdem er auf Twitter davon gelesen hatte.

Helen Toner, eine KI-Forscherin mit Interesse an der Regulierung der Technologie, erhob den Vorwurf in der TED AI Show PodcastToner war zu dieser Zeit Vorstandsmitglied und verließ das Unternehmen kurz nachdem Sam Altman Ende letzten Jahres entlassen und von OpenAI wieder eingestellt wurde.

Toner übte in dem Interview scharfe Kritik an Altman und beschrieb die Situation bei OpenAI als „eine völlig unpraktikable Position für einen Vorstand, insbesondere für einen Vorstand, der eine unabhängige Aufsicht über das Unternehmen gewährleisten und nicht nur dem CEO dabei helfen soll, mehr Geld aufzutreiben.“

Toner meinte: „Wir konnten einfach nicht glauben, was Sam uns erzählte.“

Der Vorstand sei von ChatGPTs überraschendem Start völlig überrumpelt worden, behauptete sie. „Wir haben auf Twitter von ChatGPT erfahren“, sagte Toner. Ein weiteres Beispiel sei Altmans Besitz des OpenAI Startup Fund.

Toner sagte: „Er gab uns mehrfach ungenaue Informationen über die wenigen formalen Sicherheitsprozesse, die das Unternehmen tatsächlich eingeführt hatte. Das bedeutete, dass es für den Vorstand im Grunde unmöglich war, zu wissen, wie gut diese Sicherheitsprozesse funktionierten oder was möglicherweise geändert werden musste.“

Laut Toner erreichte das Misstrauen einen Punkt, an dem der Vorstand entschied, dass Altman gehen müsse, und es kam zum Chaos im vergangenen November. Altman wurde abrupt gefeuert und im darauffolgenden Monat wieder willkommen geheißen.

„Die OpenAI-Saga“, sagte Toner, „zeigt, dass es nicht ausreicht, Gutes tun zu wollen und sich selbst zu regulieren.“

Siehe auch  Laut ChatGPT sind drei Brasilianer im besten Team aller Zeiten

Ein Teil der Reibung, die Toner erlebte, könnte auf eine Papier Sie war Mitautorin eines Artikels, der den Sicherheitsansatz von OpenAI im Vergleich zum Konkurrenten Anthropic zu kritisieren schien. Toner ihrerseits beschrieb das Papier als „in der Presse stark überbewertet“. Es ist jedoch nicht schwer, sich vorzustellen, dass Altman davon nicht gerade beeindruckt war.

„Das Problem war, dass Sam nach Erscheinen des Dokuments begann, andere Vorstandsmitglieder zu belügen, um mich aus dem Vorstand zu drängen“, behauptete Toner.

Anthropic hat ehemalige OpenAI-Mitarbeiter angeworben und 4 Milliarden Dollar von Amazon eingesammelt. Zuletzt hat Jan Leike, ehemals leitender Sicherheitsforscher bei OpenAI, angekündigt dass er zu Anthropic wechseln würde.

Das Register bat OpenAI um einen Kommentar zu Toners Anschuldigungen und wurde auf das Schlussprotokoll des Podcasts verwiesen, in dem Bret Taylor, Vorstandsvorsitzender von OpenAI, sagte, das Unternehmen sei „enttäuscht, dass Frau Toner diese Themen immer wieder aufgreift“.

Taylor wies darauf hin, dass die Entscheidung des vorherigen Vorstands nicht auf Sicherheitsbedenken oder Bedenken hinsichtlich der Finanzen von OpenAI beruhte. Er stellte auch fest, dass über 95 Prozent der OpenAI-Mitarbeiter Altmans Wiedereinstellung und den Rücktritt des vorherigen Vorstands forderten.

„Unser Fokus liegt weiterhin darauf, voranzukommen und die Mission von OpenAI zu verfolgen, um sicherzustellen, dass AGI der gesamten Menschheit zugutekommt.“ ®

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein