Eine der Anführerinnen des kurzen, spektakulären, aber letztlich erfolglosen Putsches zum Sturz von Sam Altman warf der OpenAI-Chefin in einem aufsehenerregenden Interview wiederholte Unehrlichkeit vor. Es war ihre erste ausführliche Äußerung seit den turbulenten Ereignissen im November.

Helen Toner, eine Expertin für KI-Politik von der Georgetown University, saß von 2021 bis zu ihrem Rücktritt Ende letzten Jahres im Vorstand der gemeinnützigen Organisation, die OpenAI kontrollierte, nachdem sie Altmans Rolle bei der Absetzung gespielt hatte. Nachdem die Mitarbeiter mit Massenabgängen gedroht hatten, kehrte er mit der Macht eines neuen Vorstands zurück, wobei von den ursprünglichen vier Verschwörern nur Quora-CEO Adam D'Angelo übrig blieb.

Toner bestritt Spekulationen, dass sie und ihre Vorstandskollegen durch einen technologischen Fortschritt verschreckt worden seien. Stattdessen führte sie den Coup auf ein ausgeprägtes Muster unehrlichen Verhaltens von Altman zurück, das das Vertrauen allmählich untergrub, da wichtige Entscheidungen nicht im Voraus mitgeteilt wurden.

„Jahrelang hat Sam es dem Vorstand sehr schwer gemacht, diese Aufgabe tatsächlich zu erfüllen, indem er Informationen zurückhielt, Dinge, die im Unternehmen passierten, falsch darstellte und in einigen Fällen den Vorstand schlichtweg belog“, sagte sie. Die TED AI Show in am Dienstag veröffentlichten Kommentaren.

Sogar der eigentliche Start von chatgpt, das mit seinem Debüt im November 2022 den Hype um generative KI auslöste, wurde dem Vorstand laut Toner vorenthalten. „Wir haben auf Twitter von ChatGPT erfahren“, sagte sie.

Toner behauptete, Altman habe immer eine passende Ausrede parat gehabt, um die Bedenken des Vorstands herunterzuspielen, weshalb so lange keine Maßnahmen ergriffen worden seien.

Siehe auch  OpenAI erzielt einen Jahresumsatz von über 1,6 Milliarden US-Dollar

„Sam konnte immer eine harmlos klingende Erklärung dafür finden, warum es keine große Sache war oder warum es missverstanden wurde oder was auch immer“, fuhr sie fort. „Aber das Endergebnis war, dass wir alle vier, die ihn gefeuert hatten, nach Jahren dieser Art von Dingen zu dem Schluss kamen, dass wir einfach nicht glauben konnten, was Sam uns erzählte, und das ist für einen Vorstand eine völlig unpraktikable Position.“

OpenAI antwortete nicht auf eine Anfrage von Vermögen für Kommentar.

Die Dinge spitzten sich schließlich zu, sagte Toner, nachdem sie Mitherausgeberin eines Papier im Oktober letzten Jahres, das den Ansatz von Anthropic zur KI-Sicherheit in einem besseren Licht als OpenAI erscheinen ließ und Altman erzürnte.

„Das Problem war, dass Sam nach Erscheinen des Dokuments begann, andere Vorstandsmitglieder anzulügen, um mich aus dem Vorstand zu drängen. Das war also ein weiteres Beispiel dafür, dass unser Vertrauen in ihn wirklich beschädigt wurde“, fuhr sie fort und fügte hinzu, dass dieses Verhalten mit Diskussionen zusammenfiel, in denen der Vorstand „bereits ziemlich ernsthaft darüber sprach, ob wir ihn entlassen sollten“.

Für sich genommen könnten diese und andere abfällige Bemerkungen Toners gegenüber Altman als Missgunst der Anführerin eines gescheiterten Putsches heruntergespielt werden. Das Muster der Unehrlichkeit, das sie beschrieb, geht jedoch auf die ähnlich schädlichen Anschuldigungen des ehemaligen leitenden KI-Sicherheitsforschers Jan Leike sowie von Scarlett Johansson zurück.

Versuche der Selbstregulierung zum Scheitern verurteilt

Die Hollywood-Schauspielerin sagte, Altman sei mit der Bitte an sie herangetreten, ihre Stimme für sein neuestes Flaggschiffprodukt zu verwenden – einen ChatGPT-Voice-Bot, mit dem Benutzer sich unterhalten können, was an die fiktive Figur erinnert, die Johansson im Film spielte Ihr. Als sie sich weigerte, vermutet sie, dass er möglicherweise einen Teil ihrer Stimme eingemischt und damit ihren Willen verletzt hat. Das Unternehmen bestreitet ihre Behauptungen, hat sich aber trotzdem bereit erklärt, die Nutzung einzustellen.

Leike hingegen war Co-Leiter des Teams, das für die Entwicklung von Leitplanken verantwortlich war, die sicherstellen sollen, dass die Menschheit hyperintelligente KI kontrollieren kann. Er verließ das Unternehmen diesen Monat, da ihm klar geworden sei, dass das Management nicht die Absicht habe, seinem Team wie versprochen wertvolle Ressourcen zuzuweisen. Er hinterließ damit eine vernichtende Kritik an seinem ehemaligen Arbeitgeber. (Am Dienstag wechselte er zu demselben OpenAI-Konkurrenten, den Toner im Oktober gelobt hatte: Anthropic.)

Siehe auch  Der ChatGPT-Hersteller OpenAI setzt sich mit bekannten Gesichtern zusammen, um die Behauptungen von Elon Musk erneut anzufechten

Nachdem wichtige Mitglieder des KI-Sicherheitsteams in alle Winde zerstreut worden waren, löste OpenAI das Team vollständig auf und übertrug die Kontrolle in die Hände von Altman und seinen Verbündeten. Ob diejenigen, die für die Maximierung der finanziellen Ergebnisse verantwortlich sind, besser mit der Implementierung von Leitplanken betraut werden sollten, die sich als kommerzielles Hindernis erweisen könnten, bleibt abzuwarten.

Obwohl einige Mitarbeiter ihre Zweifel hatten, äußerten sich außerhalb von Leike nur wenige. Dank Berichterstattung Wie Vox Anfang des Monats mitteilte, kam heraus, dass ein Hauptgrund für dieses Schweigen eine ungewöhnliche Nichtverunglimpfungsklausel war, deren Verletzung den Anspruch eines Mitarbeiters auf Beteiligung an dem vielleicht angesagtesten Startup der Welt ungültig machen würde.

Dies folgte früheren Aussagen des ehemaligen OpenAI-Sicherheitsforschers Daniel Kokotajlo, dass er freiwillig seinen Anteil am Eigenkapital geopfert habe, um nicht an die Ausstiegsvereinbarung gebunden zu sein. Altman später bestätigt die Gültigkeit der Ansprüche.

„Obwohl wir nie etwas zurückgefordert haben, hätte es nie etwas sein dürfen, das in irgendwelchen Dokumenten oder Mitteilungen enthalten war“, postete er Anfang des Monats. „Das geht auf meine Kappe und ist eines der wenigen Male, dass ich mich wirklich geschämt habe, OpenAI zu leiten. Ich wusste nicht, dass das passierte, aber ich hätte es wissen sollen.“

Toners Kommentare kommen kurz nach ihrem op-ed im Ökonomin dem sie und die ehemalige OpenAI-Direktorin Tasha McCauley argumentierten, dass man keinem KI-Unternehmen vertrauen könne, sich selbst zu regulieren, wie die Beweise zeigten.

„Wenn es ein Unternehmen gegeben hätte, das sich erfolgreich selbst hätte verwalten und gleichzeitig sicher und ethisch fortschrittliche KI-Systeme hätte entwickeln können, dann wäre es OpenAI gewesen“, schrieben sie. „Aufgrund unserer Erfahrung glauben wir, dass Selbstverwaltung dem Druck von Gewinnanreizen nicht zuverlässig standhalten kann.“

Siehe auch  Wie nutzt man ChatGPT als Unternehmen?
Abonnieren Sie den Newsletter von Eye on AI, um auf dem Laufenden zu bleiben, wie KI die Zukunft der Wirtschaft gestaltet. Die Anmeldung ist kostenlos.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein