Am Montag, OpenAI angekündigt aufregende neue Produktneuigkeiten: chatgpt kann jetzt wie ein Mensch sprechen.

Er hat eine fröhliche, leicht einschmeichelnde weibliche Stimme, die beeindruckend unroboterhaft klingt und einem ein wenig bekannt vorkommt, wenn man einen bestimmten Film von Spike Jonze aus dem Jahr 2013 gesehen hat. „Ihr,“ getwittert Sam Altman, CEO von OpenAI, bezieht sich auf den Film, in dem sich ein Mann in einen KI-Assistenten verliebt, gesprochen von Scarlett Johansson.

Doch die Produktveröffentlichung von ChatGPT 4o wurde schnell von viel größeren Neuigkeiten aus OpenAI überschattet: dem Rücktritt des Mitbegründers und Chefwissenschaftlers des Unternehmens, Ilya Sutskever, der auch das Superalignment-Team leitete, sowie den seines Co-Teamleiters Jan Leike (den wir letztes Jahr auf die Future Perfect 50-Liste gesetzt haben).

Die Rücktritte kamen nicht völlig überraschend. Sutskever war beteiligt gewesen bei der Revolte im Vorstand, die letztes Jahr zu Altmans vorübergehender Entlassung führte, bevor der CEO schnell wieder auf seinen Posten zurückkehrte. Sutskever bedauerte öffentlich seine Taten und unterstützte Altmans Rückkehr, aber das war größtenteils der Fall seitdem nicht mehr im Unternehmenauch als andere Mitglieder der Richtlinien-, Ausrichtungs- und Sicherheitsteams von OpenAI sind abgereist.

Was aber wirklich für Spekulationen sorgte, war die Funkstille ehemaliger Mitarbeiter. Sutskever Gesendet eine ziemlich typische Rücktrittsnachricht, in der es heißt: „Ich bin zuversichtlich, dass OpenAI eine AGI entwickeln wird, die sowohl sicher als auch nützlich ist … Ich bin gespannt auf das, was als nächstes kommt.“

Leike … nicht. Seine Rücktrittserklärung war einfach: „Ich resignierte.“ Nach mehreren Tagen heftiger Spekulationen hat er hierzu erweitert am Freitagmorgen erklärte er, dass er besorgt sei, dass OpenAI von einer sicherheitsorientierten Kultur abgewichen sei.

Es stellten sich sofort Fragen: Wurden sie vertrieben? Handelt es sich hierbei um verzögerte Folgen von Altmans kurzer Entlassung im vergangenen Herbst? Treten sie aus Protest gegen ein geheimes und gefährliches neues OpenAI-Projekt zurück? Spekulationen füllten die Lücke, weil niemand sprach, der einmal bei OpenAI gearbeitet hatte.

Es stellt sich heraus, dass es dafür einen ganz klaren Grund gibt. Ich habe die äußerst restriktive Off-Boarding-Vereinbarung gesehen, die Geheimhaltungs- und Nichtverunglimpfungsbestimmungen enthält, denen ehemalige OpenAI-Mitarbeiter unterliegen. Es verbietet ihnen für den Rest ihres Lebens, ihren früheren Arbeitgeber zu kritisieren. Schon die Anerkennung der Existenz des NDA stellt einen Verstoß dagegen dar.

Wenn ein ausscheidender Mitarbeiter sich weigert, das Dokument zu unterzeichnen, oder wenn er dagegen verstößt, kann er alle während seiner Zeit im Unternehmen erworbenen Vermögenswerte verlieren, die wahrscheinlich mehrere Millionen Dollar wert sind. Ein ehemaliger Mitarbeiter, Daniel Kokotajlo, der schrieb, er habe OpenAI verlassen, „weil er das Vertrauen verloren habe, dass sich das Unternehmen zur Zeit der AGI verantwortungsbewusst verhalten würde“, hat öffentlich bestätigt dass er wahrscheinlich eine riesige Geldsumme abgeben musste, um auszutreten, ohne das Dokument zu unterschreiben.

Während Geheimhaltungsvereinbarungen im hart umkämpften Silicon Valley nichts Ungewöhnliches sind, ist es doch so, dass das bereits zugeteilte Eigenkapital eines Mitarbeiters durch die Ablehnung oder Verletzung dieser Vereinbarung gefährdet wird. Für Arbeitnehmer in Startups wie OpenAI ist Eigenkapital eine wichtige Form der Vergütung, die ihr Gehalt in den Schatten stellen kann. Mit diesem möglicherweise lebensverändernden Geld zu drohen, ist ein sehr wirksames Mittel, um ehemalige Mitarbeiter zum Schweigen zu bringen. (OpenAI antwortete nicht auf eine Anfrage nach einem Kommentar.)

Siehe auch  Claude 2.0 fordert ChatGPT heraus: Kampf der KI-Riesen

All dies ist höchst ironisch für ein Unternehmen, das sich ursprünglich als solche bewarb OffenKI – das heißt, wie in seinen Leitbildern festgelegt, leistungsstarke Systeme auf transparente und verantwortungsvolle Weise aufzubauen.

OpenAI vor langer Zeit verlassen die Idee, seine Modelle als Open-Source-Lösung anzubieten, zitieren Sicherheits-Bedenken. Aber jetzt hat es die ranghöchsten und angesehensten Mitglieder seines Sicherheitsteams entlassen, was einige Skepsis darüber hervorrufen sollte, ob Sicherheit wirklich der Grund ist, warum OpenAI so geschlossen wurde.

Das Technologieunternehmen soll allen Technologieunternehmen den Garaus machen

OpenAI nimmt in Technologie- und Politikkreisen seit langem eine ungewöhnliche Position ein. Ihre Veröffentlichungen, von DALL-E bis ChatGPT, sind oft sehr cool, aber allein würden sie kaum die fast religiöse Begeisterung hervorrufen, mit der das Unternehmen oft diskutiert wird.

Was OpenAI auszeichnet, ist das Ehrgeiz seiner Mission: „um sicherzustellen, dass künstliche allgemeine Intelligenz – KI-Systeme, die im Allgemeinen intelligenter sind als Menschen – der gesamten Menschheit zugute kommt.“ Viele unserer Mitarbeiter glauben, dass dieses Ziel in greifbarer Nähe liegt; das mit vielleicht einem Jahrzehnt mehr (oder sogar weniger) – und ein paar Billionen Dollar – Dem Unternehmen wird es gelingen, KI-Systeme zu entwickeln, die die meisten menschlichen Arbeitskräfte überflüssig machen.

Was, wie das Unternehmen selbst seit langem sagt, ebenso riskant wie aufregend ist.

„Superintelligenz wird die einflussreichste Technologie sein, die die Menschheit je erfunden hat, und könnte uns helfen, viele der wichtigsten Probleme der Welt zu lösen“, heißt es auf einer Rekrutierungsseite für das Team von Leike und Sutskever bei OpenAI Zustände. „Aber die enorme Macht der Superintelligenz könnte auch sehr gefährlich sein und zur Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen. Während Superintelligenz derzeit noch in weiter Ferne zu sein scheint, glauben wir, dass sie noch in diesem Jahrzehnt eintreffen könnte.“

Natürlich, wenn künstliche Superintelligenz in unserem Leben möglich ist (und Experten sind es). geteilt), hätte dies enorme Auswirkungen auf die Menschheit. OpenAI hat sich in der Vergangenheit als positioniert ein verantwortungsvoller Schauspieler Wir versuchen, über bloße kommerzielle Anreize hinauszugehen und AGI zum Wohle aller zu verwirklichen. Und sie haben erklärt, dass sie dazu bereit sind, auch wenn dies erforderlich sein sollte die Entwicklung verlangsamenGewinnchancen verpassen oder externe Aufsicht zulassen.

„Wir glauben nicht, dass AGI nur eine Sache des Silicon Valley sein sollte“, sagte mir OpenAI-Mitbegründer Greg Brockman im Jahr 2019, in den viel ruhigeren Tagen vor ChatGPT. „Wir reden über weltverändernde Technologie. Und wie bekommt man dort die richtige Vertretung und Führung hin? Das ist tatsächlich ein wirklich wichtiger Schwerpunkt für uns und etwas, zu dem wir wirklich einen breiten Input wünschen.“

Die einzigartige Unternehmensstruktur von OpenAI – ein Unternehmen mit begrenztem Gewinn, das letztendlich von einer gemeinnützigen Organisation kontrolliert wird – sollte die Verantwortlichkeit erhöhen. „Hier sollte niemandem vertraut werden. Ich habe keine Super-Voting-Aktien. Ich will sie nicht“, versicherte Altman Emily Chang von Bloomberg im Jahr 2023. „Der Vorstand kann mich entlassen. Ich denke, das ist wichtig.“ (Wie der Vorstand letzten November herausfand, ist es könnte feuerte Altman ab, aber es konnte den Zug nicht durchhalten. Nach seiner Entlassung Altman einen Deal gemacht um das Unternehmen effektiv zu Microsoft zu bringen, bevor es schließlich wieder eingesetzt wurde und der Großteil des Vorstands zurücktrat.)

Siehe auch  Diese US-Universität arbeitet mit OpenAI zusammen, um ChatGPT in die Klassenzimmer zu bringen

Aber es gab kein stärkeres Zeichen für das Engagement von OpenAI für seine Mission als die herausragende Rolle von Leuten wie Sutskever und Leike, Technologen mit einer langen Geschichte des Engagements für Sicherheit und der offensichtlich echten Bereitschaft, OpenAI bei Bedarf um einen Kurswechsel zu bitten. Als ich in diesem Interview 2019 zu Brockman sagte: „Ihr sagt: ‚Wir werden eine allgemeine künstliche Intelligenz aufbauen‘“, mischte sich Sutskever ein. „Wir werden in dieser Richtung alles tun, was möglich ist.“ Wir achten auch darauf, dass wir es auf sichere Weise tun“, sagte er mir.

Ihr Weggang bedeutet keine Änderung in der Mission von OpenAI, künstliche allgemeine Intelligenz aufzubauen – das Überreste das Ziel. Aber es kündigt mit ziemlicher Sicherheit einen Wandel im Interesse von OpenAI an der Sicherheitsarbeit an; Das Unternehmen hat nicht bekannt gegeben, wer, wenn überhaupt, das Superalignment-Team leiten wird.

Und es macht deutlich, dass die Sorge von OpenAI um externe Aufsicht und Transparenz nicht so tiefgreifend sein konnte. Wenn Sie eine externe Aufsicht wünschen und dem Rest der Welt die Möglichkeit geben möchten, eine Rolle bei Ihren Aktivitäten zu spielen, ist es nicht unbedingt sinnvoll, ehemalige Mitarbeiter dazu zu zwingen, äußerst restriktive Geheimhaltungsvereinbarungen zu unterzeichnen.

Die Welt hinter verschlossenen Türen verändern

Dieser Widerspruch ist der Kern dessen, was OpenAI zutiefst frustrierend für diejenigen von uns macht, denen es sehr am Herzen liegt, sicherzustellen, dass KI wirklich gut funktioniert und der Menschheit zugute kommt. Ist OpenAI ein lebhaftes, wenn auch mittelgroßes Technologieunternehmen, das einen gesprächigen persönlichen Assistenten herstellt, oder ein Billionen-Dollar-Projekt zur Schaffung eines KI-Gotts?

Die Führung des Unternehmens sagt, dass sie die Welt verändern will, dass sie dabei Verantwortung übernehmen möchte und dass sie den Beitrag der Welt zu einer gerechten und klugen Vorgehensweise begrüßt.

Aber wenn es um echtes Geld geht – und das gibt es erstaunliche Summen Im Wettlauf um die KI-Vorherrschaft geht es um echtes Geld – es wird klar, dass sie wahrscheinlich nie beabsichtigt haben, dass die Welt alles bekommt Das viel Input. Ihr Prozess stellt sicher, dass ehemalige Mitarbeiter – diejenigen, die am besten darüber wissen, was bei OpenAI passiert – dem Rest der Welt nicht erzählen können, was vor sich geht.

Die Website hat möglicherweise hochgesinnte Ideale, aber ihre Aufhebungsverträge sind voller hartnäckiger juristischer Ausdrücke. Es ist schwierig, Verantwortung gegenüber einem Unternehmen zu übernehmen, dessen ehemalige Mitarbeiter nur sagen müssen: „Ich habe gekündigt.“

Die neue süße Stimme von ChatGPT mag bezaubernd sein, aber ich bin nicht besonders verliebt.

Eine Version dieser Geschichte erschien ursprünglich im Zukunft perfekt Newsletter. Hier anmelden!

5/5 - (196 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein