Eine der Anführerinnen des kurzen, spektakulären, aber letztlich erfolglosen Putsches zum Sturz von Sam Altman warf der OpenAI-Chefin in einem aufsehenerregenden Interview wiederholte Unehrlichkeit vor. Es war ihre erste ausführliche Äußerung seit den turbulenten Ereignissen im November.
Helen Toner, eine Expertin für KI-Politik von der Georgetown University, saß von 2021 bis zu ihrem Rücktritt Ende letzten Jahres im Vorstand der gemeinnützigen Organisation, die OpenAI kontrollierte, nachdem sie Altmans Rolle bei der Absetzung gespielt hatte. Nachdem die Mitarbeiter mit Massenabgängen gedroht hatten, kehrte er mit der Macht eines neuen Vorstands zurück, wobei von den ursprünglichen vier Verschwörern nur Quora-CEO Adam D'Angelo übrig blieb.
Toner bestritt Spekulationen, dass sie und ihre Vorstandskollegen durch einen technologischen Fortschritt verschreckt worden seien. Stattdessen führte sie den Coup auf ein ausgeprägtes Muster unehrlichen Verhaltens von Altman zurück, das das Vertrauen allmählich untergrub, da wichtige Entscheidungen nicht im Voraus mitgeteilt wurden.
„Jahrelang hat Sam es dem Vorstand sehr schwer gemacht, diese Aufgabe tatsächlich zu erfüllen, indem er Informationen zurückhielt, Dinge, die im Unternehmen passierten, falsch darstellte und in einigen Fällen den Vorstand schlichtweg belog“, sagte sie. Die TED AI Show in am Dienstag veröffentlichten Kommentaren.
Sogar der eigentliche Start von chatgpt, das mit seinem Debüt im November 2022 den Hype um generative KI auslöste, wurde dem Vorstand laut Toner vorenthalten. „Wir haben auf Twitter von ChatGPT erfahren“, sagte sie.
Ich teile dies, aufgenommen vor ein paar Wochen. Der Großteil der Folge dreht sich um KI-Politik im weiteren Sinne, aber dies war mein erstes ausführliches Interview seit Abschluss der OpenAI-Untersuchung, also haben wir auch ein bisschen über November gesprochen.
Dank an @bilawalsidhu für ein lustiges Gespräch! https://t.co/h0PtK06T0K
— Helen Toner (@hlntnr) 28. Mai 2024
Toner behauptete, Altman habe immer eine passende Ausrede parat gehabt, um die Bedenken des Vorstands herunterzuspielen, weshalb so lange keine Maßnahmen ergriffen worden seien.
„Sam konnte immer eine harmlos klingende Erklärung dafür finden, warum es keine große Sache war oder warum es missverstanden wurde oder was auch immer“, fuhr sie fort. „Aber das Endergebnis war, dass wir alle vier, die ihn gefeuert hatten, nach Jahren dieser Art von Dingen zu dem Schluss kamen, dass wir einfach nicht glauben konnten, was Sam uns erzählte, und das ist für einen Vorstand eine völlig unpraktikable Position.“
OpenAI antwortete nicht auf eine Anfrage von Vermögen für Kommentar.
Die Dinge spitzten sich schließlich zu, sagte Toner, nachdem sie Mitherausgeberin eines Papier im Oktober letzten Jahres, das den Ansatz von Anthropic zur KI-Sicherheit in einem besseren Licht als OpenAI erscheinen ließ und Altman erzürnte.
„Das Problem war, dass Sam nach Erscheinen des Dokuments begann, andere Vorstandsmitglieder anzulügen, um mich aus dem Vorstand zu drängen. Das war also ein weiteres Beispiel dafür, dass unser Vertrauen in ihn wirklich beschädigt wurde“, fuhr sie fort und fügte hinzu, dass dieses Verhalten mit Diskussionen zusammenfiel, in denen der Vorstand „bereits ziemlich ernsthaft darüber sprach, ob wir ihn entlassen sollten“.
Doch in den vergangenen Jahren sind Sicherheitskultur und -prozesse gegenüber glänzenden Produkten in den Hintergrund geraten.
— Jan Leike (@janleike) 17. Mai 2024
Für sich genommen könnten diese und andere abfällige Bemerkungen Toners gegenüber Altman als Missgunst der Anführerin eines gescheiterten Putsches heruntergespielt werden. Das Muster der Unehrlichkeit, das sie beschrieb, geht jedoch auf die ähnlich schädlichen Anschuldigungen des ehemaligen leitenden KI-Sicherheitsforschers Jan Leike sowie von Scarlett Johansson zurück.
Versuche der Selbstregulierung zum Scheitern verurteilt
Die Hollywood-Schauspielerin sagte, Altman sei mit der Bitte an sie herangetreten, ihre Stimme für sein neuestes Flaggschiffprodukt zu verwenden – einen ChatGPT-Voice-Bot, mit dem Benutzer sich unterhalten können, was an die fiktive Figur erinnert, die Johansson im Film spielte Ihr. Als sie sich weigerte, vermutet sie, dass er möglicherweise einen Teil ihrer Stimme eingemischt und damit ihren Willen verletzt hat. Das Unternehmen bestreitet ihre Behauptungen, hat sich aber trotzdem bereit erklärt, die Nutzung einzustellen.
Wir sind Jan wirklich dankbar für alles, was er für OpenAI getan hat, und wir wissen, dass er auch weiterhin von außen zur Mission beitragen wird. Angesichts der Fragen, die sein Weggang aufgeworfen hat, möchten wir ein wenig darüber erklären, wie wir über unsere Gesamtstrategie denken.
Erstens haben wir … https://t.co/djlcqEiLLN
— Greg Brockman (@gdb) 18. Mai 2024
Leike hingegen war Co-Leiter des Teams, das für die Entwicklung von Leitplanken verantwortlich war, die sicherstellen sollen, dass die Menschheit hyperintelligente KI kontrollieren kann. Er verließ das Unternehmen diesen Monat, da ihm klar geworden sei, dass das Management nicht die Absicht habe, seinem Team wie versprochen wertvolle Ressourcen zuzuweisen. Er hinterließ damit eine vernichtende Kritik an seinem ehemaligen Arbeitgeber. (Am Dienstag wechselte er zu demselben OpenAI-Konkurrenten, den Toner im Oktober gelobt hatte: Anthropic.)
Nachdem wichtige Mitglieder des KI-Sicherheitsteams in alle Winde zerstreut worden waren, löste OpenAI das Team vollständig auf und übertrug die Kontrolle in die Hände von Altman und seinen Verbündeten. Ob diejenigen, die für die Maximierung der finanziellen Ergebnisse verantwortlich sind, besser mit der Implementierung von Leitplanken betraut werden sollten, die sich als kommerzielles Hindernis erweisen könnten, bleibt abzuwarten.
Obwohl einige Mitarbeiter ihre Zweifel hatten, äußerten sich außerhalb von Leike nur wenige. Dank Berichterstattung Wie Vox Anfang des Monats mitteilte, kam heraus, dass ein Hauptgrund für dieses Schweigen eine ungewöhnliche Nichtverunglimpfungsklausel war, deren Verletzung den Anspruch eines Mitarbeiters auf Beteiligung an dem vielleicht angesagtesten Startup der Welt ungültig machen würde.
Als ich ging @OpenAI vor etwas mehr als einem Jahr habe ich eine Vereinbarung zur Nichtverunglimpfung unterzeichnet, mit Geheimhaltung der Vereinbarung selbst, und zwar aus keinem anderen Grund, als um den Verlust meines unverfallbaren Eigenkapitals zu vermeiden. (Thread)
— Jacob Hilton (@JacobHHilton) 24. Mai 2024
Dies folgte früheren Aussagen des ehemaligen OpenAI-Sicherheitsforschers Daniel Kokotajlo, dass er freiwillig seinen Anteil am Eigenkapital geopfert habe, um nicht an die Ausstiegsvereinbarung gebunden zu sein. Altman später bestätigt die Gültigkeit der Ansprüche.
„Obwohl wir nie etwas zurückgefordert haben, hätte es nie etwas sein dürfen, das in irgendwelchen Dokumenten oder Mitteilungen enthalten war“, postete er Anfang des Monats. „Das geht auf meine Kappe und ist eines der wenigen Male, dass ich mich wirklich geschämt habe, OpenAI zu leiten. Ich wusste nicht, dass das passierte, aber ich hätte es wissen sollen.“
Toners Kommentare kommen kurz nach ihrem op-ed im Ökonomin dem sie und die ehemalige OpenAI-Direktorin Tasha McCauley argumentierten, dass man keinem KI-Unternehmen vertrauen könne, sich selbst zu regulieren, wie die Beweise zeigten.
in Bezug auf aktuelle Informationen darüber, wie OpenAI mit Eigenkapital umgeht:
wir haben noch nie das unverfallbare Eigentum von irgendjemandem zurückgefordert und werden das auch nicht tun, wenn die Leute keine Trennungsvereinbarung unterzeichnen (oder einer Nichtherabwürdigungsvereinbarung nicht zustimmen). Unverfallbares Eigentum ist unverfallbares Eigentum, Punkt.
es gab…
– Sam Altman (@sama) 18. Mai 2024
„Wenn es ein Unternehmen gegeben hätte, das sich erfolgreich selbst hätte verwalten und gleichzeitig sicher und ethisch fortschrittliche KI-Systeme hätte entwickeln können, dann wäre es OpenAI gewesen“, schrieben sie. „Aufgrund unserer Erfahrung glauben wir, dass Selbstverwaltung dem Druck von Gewinnanreizen nicht zuverlässig standhalten kann.“