Gerade als ich (immer wieder naiv) dachte, dass sich der OpenAI-Aufruhr bald legen würde, kam es immer wieder zu einer Wendung, die nicht einmal die Drehbuchautoren von Succession hätten schreiben können.

Nachdem sich mehr als 90 % der OpenAI-Mitarbeiter völlig auflösten und gemeinsam die Auflösung des Vorstands und die Rückkehr von Sam Altman forderten, gab der Vorstand seinen Widerstand nicht auf. Sie wandten sich sogar an den Konkurrenten Anthropic und versuchten, die beiden Unternehmen zu fusionieren.

Der Vorstand hofft, den Mitbegründer und CEO von Anthropic, Dario Amodei, davon zu überzeugen, die Position des CEO zu übernehmen, um die historische Leistung zu vollenden, vier CEOs in vier Tagen zu ersetzen.

Dario Amodei war ebenfalls ein ehemaliger OpenAI-Manager. Anthropic, das er nach seinem Ausscheiden aus dem Unternehmen gründete, konzentriert sich auf die Förderung sicherer KI, und sein Chatbot Claude ist ein Konkurrent von chatgpt.

5B3F527D Dda7 4557 8649 F2C3E6De4540 Mk9Pql

Analysten gehen davon aus, dass eine wirkliche Verschmelzung von OpenAI und Anthropic den Beginn eines weiteren Chaos bedeuten wird, denn hinter den beiden Star-Startups stehen die Positionen mehrerer Technologiegiganten im KI-Bereich.

Microsoft und OpenAI schließen sich zusammen und Anthropic hat Cloud-Computing-Vereinbarungen im Wert von mehreren Milliarden Dollar mit Amazon und google unterzeichnet. Beide Giganten haben auch in Anthropic investiert.

Derzeit steht OpenAI kurz vor dem Zerfall. Die Konkurrenz beginnt, eine große Zahl von Outflow-Talenten zu rekrutieren. Gleichzeitig erwägen auch die Großkunden von OpenAI einen Wechsel zu Unternehmen wie Anthropic, Microsoft oder Google.

Während wir die Entwicklungen weiterhin verfolgen, blicken wir auch auf den Ausgangspunkt dieses Umbruchs zurück – die internen Konflikte von OpenAI. In seinem neuesten Bericht hat The Atlantic Monthly einen seit langem verschütteten internen Ideenkonflikt ans Licht gebracht.

Das Chaos bei OpenAI begann an dem Tag, an dem ChatGPT veröffentlicht wurde

Wi100123 Ff Openai 01

1. OpenAI hatte ursprünglich nicht geplant, GPT-3.5 zu veröffentlichen. Im Herbst 2022 bereitete OpenAI ursprünglich die Veröffentlichung von GPT-4 vor. Es gab jedoch Gerüchte, dass Anthropic auch einen Chatbot veröffentlichen würde, weshalb das OpenAI-Managementteam im November ankündigte, dass das Produkt einige Wochen später veröffentlicht werden würde, und sich für GPT-3.5 entschied, das zu diesem Zeitpunkt relativ vollständig war.

2. Niemand hat mit dem Erfolg von ChatGPT gerechnet. Die Veröffentlichung von ChatGPT war sehr zurückhaltend, so zurückhaltend, dass viele Mitarbeiter im Unternehmen nicht wussten, dass OpenAI es veröffentlicht hatte. Damals wetteten Mitarbeiter, die davon wussten, noch darauf, wie viele Nutzer es anlocken könnte, und sie schätzten höchstens 10.000 Nutzer. Dadurch überstieg die Zahl der Nutzer innerhalb von fünf Tagen nach dem Start die 1-Million-Marke.

3. ChatGPT bringt nicht nur den Server zum Absturz, sondern macht auch Erkennungstools unwirksam. Das Team hat ein Verkehrsüberwachungstool entwickelt, das das Benutzerverhalten verfolgen, verstehen kann, wie Benutzer dieses Tool verwenden, und potenzielle Krisen und Missbrauch koordinieren kann. Die Beliebtheit von ChatGPT führte dazu, dass das Tool immer wieder abstürzte.

Siehe auch  Das ChatGPT der Robotik ist da ... Und es ist sehr beängstigend. | von Kye Gomez | September 2023

4. Das Sicherheitsteam von OpenAI riet dem Produktteam, Produktaktualisierungen zu verlangsamen. Nach der Veröffentlichung von ChatGPT wuchs die Zahl der Benutzer rapide und das Sicherheitsteam konnte nicht mit der Bewältigung von Sicherheitsrisiken und böswilliger Nutzung Schritt halten. Anschließend ignorierte das Produktteam die Mahnungen des Sicherheitsteams und verfolgte beharrlich den Sieg, indem es nacheinander die kostenpflichtige Version von ChatGPT und die offene API-Schnittstelle auf den Markt brachte.

5. Betrugskrise. Mit der weit verbreiteten Anwendung von ChatGPT und GPT-4 haben einige Leute auch Schwachstellen entdeckt. Einige Benutzer begannen, in großem Umfang neue Konten zu erstellen, um den Rabatt von 20 US-Dollar zu erhalten, den jedes neue Konto mit sich bringt. Das Stoppen dieser Betrügereien wurde zu dieser Zeit zur obersten Priorität von OpenAI, und ein kleines Team von Mitgliedern des Sicherheitsteams, die ursprünglich verschiedenen Bereichen zugewiesen waren, wurde damit beauftragt, sich auf die Lösung des Problems zu konzentrieren.

6. Unter Druck entwickeln manche Mitarbeiter sogar psychische Probleme. Die Kommunikation innerhalb des Unternehmens war schlecht und die Mitarbeiter erfuhren erst, dass sie entlassen wurden, als sie bemerkten, dass ihre Kollegen auf Slack verschwunden waren.

7. „Fühle die AGI“. Die Technologie schreitet rasant voran. Chefwissenschaftler Ilya Sutskever ist immer mehr davon überzeugt, dass AGI irgendwann realisiert werden wird, und sein Verhalten ähnelt immer mehr einer Art „spiritueller Führer“. Sein Mantra ist „Fühle AGI“, was das bedeutet Alle sind dem Ziel der AGI sehr nahe. . Sutskever postete einmal in den sozialen Medien: „Wenn Sie AGI spüren können, sollten Sie sich für OpenAI bewerben.“ Auf der Weihnachtsfeier 2022 von OpenAI brachte Sutskever die Mitarbeiter sogar dazu, „Feel AGI! Feel AGI!“ zu rufen. Mitarbeiter erstellten auch „Feel AGI“-Emojis auf Slack.

8. Die andere Seite des Glaubens ist die Sorge, dass OpenAI der Sicherheit nicht genügend Aufmerksamkeit schenkt. Im Juli dieses Jahres leiteten Sutskever und Jan Leike die Gründung des „Superalignment“-Teams, um weitere vorgelagerte KI-Sicherheitstechnologien zu entwickeln und 20 % der vorhandenen Computerchips des Unternehmens zu monopolisieren, um sich auf die bevorstehende AGI in diesem Jahrzehnt vorzubereiten. „Ausrichtung“ bedeutet, die KI nur das tun zu lassen, was die Menschen von ihr erwarten.

9. Bei einer internen Veranstaltung in diesem Jahr hat Sutskever sogar eine Holzstatue angepasst, um „nicht ausgerichtete KI“ darzustellen, und sie dann in Brand gesteckt, um die Entschlossenheit von OpenAI zur Ausrichtung der KI darzustellen.

10. Im Oktober dieses Jahres eskalierten die Konflikte. Mit der Angelegenheit vertraute Personen sagten, Altman habe versucht, Sutskevers Einfluss auf das Unternehmen zu verringern, was einen Konflikt mit dem Vorstand auslöste.

11. Auf der Entwicklerkonferenz am 6. November kündigte Altman die Einführung anpassbarer GPT-Funktionen an. Sutskever war völlig verärgert und wandte sich mit Bedenken an den Vorstand.

12. Am 17. November wurde Altman während einer Online-Sitzung vom Vorstand entlassen.

13. Angesichts vieler Gerüchte, dass Altman zurückkehren werde, sagte Musk auf X, dass er sich große Sorgen machen würde, wenn Altman wirklich zurückkehren würde. Denn „Ilya hat einen sehr guten Moralkodex und strebt nicht nach Macht. Wenn er nicht das Gefühl hätte, etwas unternehmen zu müssen, würde sich Ilya nicht so extrem verhalten.“

Siehe auch  US Space Force setzt KI-Projekte, einschließlich ChatGPT, aufgrund von Datensicherheitsrisiken aus – Reuters – Nachrichten auf UNN

14. Am 20. November teilte Sutskever den Mitarbeitern mit, dass Altman nicht als CEO zu OpenAI zurückkehren werde. Emmett Shear, Mitbegründer der Live-Streaming-Plattform Twitch von Amazon, wird als Interims-CEO von OpenAI fungieren.

Hinter dem Chaos: Sutskever und Altmans philosophischer Konflikt

857C6B6C 7819 437F 8A25 12F261023531

1. Chefwissenschaftler Ilya Sutskever, der die Entwicklung der Spitzentechnologie von OpenAI leitet, studierte bei Geoffrey Hinton, dem „Godfather of AI“, und plädiert für einen vorsichtigen Umgang mit den Sicherheitsrisiken von AI und AGI.

2. Sutskevers Leistung war herausragend. Als er sich dem Hinton-Team anschloss, gab ihm Hinton gleich zu Beginn eine sehr komplexe Aufgabe. Sutskever war der Berechnungen, die beim Schreiben erforderlich waren, überdrüssig und sagte Hinton, dass es einfacher sei, selbst eine Programmiersprache zu schreiben. Hinton wurde ein wenig wütend und warnte ihn, dass es einen ganzen Monat dauern und zu nichts führen könnte. „Ich habe es heute Morgen tatsächlich fertiggestellt“, gestand Sutskever.

3. Hoher Status in der Branche. Sam Altman nannte Sutskever einen der angesehensten Forscher der Welt und glaubte, dass seine Einstellung mehr KI-Talente anziehen würde. Musk glaubt offen gesagt, dass er eine Schlüsselfigur für den Erfolg von OpenAI ist.

4. Um Sutskever von Google zu OpenAI zu locken, geriet Musk mit Google-Mitbegründer Larry Page aneinander.

5. Sutskevers Sicht auf KI: Technologie ist wie eine Naturgewalt. Es ist von entscheidender Bedeutung, die anfängliche Entstehung von AGI zu kontrollieren, da sie sonst einem Gesetz ähnlich dem „Überleben des Stärkeren“ folgt und ihrer eigenen Existenz Vorrang einräumt. Genau wie Menschen und Tiere hassen Menschen Tiere nicht, aber wenn Menschen sich weiterentwickeln wollen, werden wir die Notwendigkeit, Autobahnen zu bauen, über das Überleben der Tiere stellen.

6. Als das historische Papier „Aufmerksamkeit ist alles, was Sie brauchen“ herauskam, war Sutskever einer der wenigen Menschen, die seine Bedeutung erkennen konnten: „Das ist es, worauf wir warten.“

7. Sutskever plädiert dafür, bestimmte Werte in die Super-KI zu „eingravieren“, damit die KI einen „Eindruck“ ähnlich der „Natur“ wie Tiere hat: „Irgendwann wird die KI sehr, sehr, sehr mächtig werden. Das werden wir nicht schaffen.“ verstehen es. Sie. Sie werden viel schlauer sein als wir. Zu diesem Zeitpunkt wird eine starke Prägung entscheidend sein, damit sie für uns genauso empfinden, wie wir für unsere eigenen Kinder empfinden.“

8. Der Kampf für AGI ist vergeblich. Sutskever glaubt, dass, wenn mehrere Teams darum konkurrieren, zuerst AGI zu entwickeln, weniger Raum für die Arbeit zur Gewährleistung der Sicherheit von AGI bleibt. Im Gegensatz dazu bezeichnet sich Altman eher als „Zentrist“, der sowohl Geschwindigkeit als auch Sicherheit gewährleisten möchte.

9. Die ersten AGIs sahen in Sutskevers Vorstellung aus wie superriesige Rechenzentren mit eingebauten proprietären neuronalen Netzen, die extrem energieintensiv waren und ungefähr so ​​viel Strom verbrauchten wie Dutzende Millionen Haushalte. Diese AGIs werden sicherlich tiefgreifende Auswirkungen auf die Gesellschaft haben, aber wir sind uns nicht sicher, wer davon profitieren wird.

Siehe auch  Der französische Autohersteller Renault stellt ein wasserstoffbetriebenes Auto vor

10. Ehemalige OpenAI-Mitarbeiter sagen, Sutskever habe intern viele Anhänger und bezeichnen ihn als einen angesehenen und praxisorientierten Anführer, der für den Aufbau der Spitzentechnologie von OpenAI von entscheidender Bedeutung sei. Greg Brockman, ehemaliger Präsident von OpenAI, ist gut darin, die Forschungsergebnisse von Sutskever in nutzbare KI-Produkte umzuwandeln.

Zeitleiste von Sam Altmans Sturz:

640 1

Donnerstagabend, 16. November Ortszeit

Altman erhielt eine Nachricht von Sutskever mit der Bitte um ein Gespräch am Freitagmittag. Sutskever teilt Sam mit, dass er gefeuert wurde und die Nachricht bald veröffentlicht wird. Freitag, 17. November, Ortszeit

OpenAI gab bekannt, dass CEO Sam Altman das Unternehmen verlassen wird und Chief Technology Officer Mira Murati mit sofortiger Wirkung zum Interims-CEO ernannt wurde.

Der Vorstand von OpenAI erklärte in einem Blogbeitrag: „Herr Altman war in seiner Kommunikation mit dem Vorstand nicht offen, was den Vorstand daran gehindert hat, seinen Aufgaben nachzukommen. Der Vorstand hat dies nicht mehr getan.“ Vertrauen in ihn, dass er OpenAI weiterhin leiten wird.“

Altman hat auf der X-Plattform gepostet, dass ich meine Zeit bei OpenAI genossen habe. Sie war für mich persönlich transformativ und ich hoffe, dass sie auch die Welt verändern wird. Vor allem liebe ich es, mit so vielen talentierten Menschen zusammenzuarbeiten.

Greg Brockman, Präsident und Vorstandsvorsitzender von OpenAI, gab seinen Rücktritt bekannt. Er sagte, er sei schockiert und traurig über die Entscheidung des Vorstands.

Drei leitende Forscher bei OpenAI sind am Freitagabend Ortszeit zurückgetreten. Samstag, 18. November Ortszeit

Sam Altman teilte den Investoren mit, dass er die Gründung eines neuen KI-Unternehmens plane. Es wird erwartet, dass Greg Brockman dem Unternehmen beitritt, das sich noch in der Entwicklung befindet und dessen genaue Art zum jetzigen Zeitpunkt unklar ist.

Der Vorstand von OpenAI diskutiert mit Altman über eine Rückkehr in die CEO-Rolle. Er stehe der Rückkehr „ambivalent“ gegenüber und wünsche sich größere Veränderungen in der Regierungsführung. Sonntag, 19. November Ortszeit

Sam Altman und Greg Brockman trafen am Hauptsitz von OpenAI in San Francisco ein, um sich mit Führungskräften zu treffen.

Mira Murati, Interims-CEO von OpenAI, plant die Wiedereinstellung von Sam Altman und Greg Brockman, während die Vorstandsmitglieder weiterhin nach einem neuen CEO suchen.

Der Vorstand von OpenAI entschied sich dafür, Emmett Shear, den ehemaligen CEO von Amazons Live-Game-Streaming-Plattform Twitch, als CEO einzustellen, und Altmans Rückkehr scheiterte.

Als sie erfuhren, dass Altman nicht zurückkehren würde, gaben Dutzende OpenAI-Mitarbeiter intern bekannt, dass sie das Unternehmen verlassen würden.

Satya Nadella, CEO von Microsoft, gab bekannt, dass die OpenAI-Gründer Sam Altman und Greg Brockman und ihre Kollegen sich Microsoft anschließen werden, um ein neues Forschungsteam für fortgeschrittene künstliche Intelligenz zu leiten. 20. November, Ortszeit

Mehr als 710 OpenAI-Mitarbeiter haben den Vorstand zum Rücktritt aufgefordert, andernfalls könnten sie gemeinsam zu Microsoft überlaufen

Fortgesetzt werden…

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein