Gary Marcus ist ein lautstarker Kritiker von OpenAI und dem Boom der generativen KI.
Bildallianz/Getty Images
  • Seit OpenAI chatgpt der Welt vorgestellt hat, ist der KI-Hype allgegenwärtig.
  • Gary Marcus ist der Meinung, dass wir dem Hype nicht Glauben schenken sollten.
  • Der Akademiker ist zu einem lautstarken Kritiker von OpenAI geworden – und glaubt, dass dem Unternehmen ein ähnliches Ende wie WeWork drohen könnte.

Gary Marcus sieht sich selbst nicht als KI-Skeptiker. Lassen Sie sich davon allerdings nicht abschrecken, wenn er argumentiert, dass sich OpenAI als ebenso ein Desaster erweisen könnte wie WeWork.

„Ich möchte, dass KI Erfolg hat. Mich als KI-Skeptiker zu bezeichnen, wie es viele Leute tun, übersieht, dass ich kein Skeptiker bin“, sagte Marcus gegenüber Business Insider. „Ich bin skeptisch, was die Art und Weise angeht, wie wir es im Moment machen.“

Dem 54-jährigen Kognitionswissenschaftler und KI-Forscher aus Vancouver, der im Herbst dieses Jahres ein Buch mit dem Titel „Taming Silicon Valley“ veröffentlichen wird, fällt es angesichts der KI des „Jetzt“ schwer, nicht ruhelos zu sein.

Seit dem Start von ChatGPT hat Marcus beobachtet, wie das KI-Fieber die Welt erfasst hat. Dieser Eifer hat OpenAI auf einen gefährlichen Weg gebracht, der seiner Meinung nach von seiner ursprünglichen gemeinnützigen Mission abweicht, KI zu entwickeln, die der Menschheit zugute kommt.

Die Euphorie und der Hype, die das Unternehmen umgaben, ließen es zudem gefährlich ungebremst zurück, ähnlich wie bei Adam Neumanns skandalgeplagtem Startup, das inzwischen in Ungnade gefallen ist.

WeWork-Gründer Adam Neumann.
Jackal Pan/Visual China Group über Getty Images

„OpenAI könnte das WeWork der KI sein“, sagte Marcus. „Ich habe eine Umfrage durchgeführt [on X]. Mehr Leute hielten das für plausibel als nicht.“

Gleichzeitig hat Marcus beobachtet, wie große Sprachmodelle (LLMs) – die Technologie, die generativen KI-Tools wie ChatGPT zugrunde liegt – Milliarden von Dollar anzogen, trotz wackeliger Versprechungen von Branchenführern wie OpenAI-CEO Sam Altman, sie könnten die Menschheit eines Tages zum heiligen Gral dieses Feldes führen, der künstlichen allgemeinen Intelligenz (AGI).

Siehe auch  Ein ChatGPT-Analogon von Google hat versehentlich einen kleinen Trick des Unternehmens preisgegeben

Sich auf den ganzen Hype einzulassen, sei ein großer Fehler, meint er: „Die KI, die wir derzeit verwenden, hat viele grundlegende Probleme.“

OpenAI antwortete nicht auf eine Bitte um Stellungnahme von BI.

Der größte Skeptiker von OpenAI

Gary Marcus erschien im Mai 2023 neben Sam Altman auf dem Capitol Hill.
ANDREW CABALLERO-REYNOLDS/Getty Images

Marcus war nicht immer so beunruhigt über die Branche.

Vor etwas mehr als einem Jahr, im Mai 2023, saß er Seite an Seite mit Altman, um auf dem Capitol Hill Fragen von Abgeordneten zu den Gefahren zu beantworten, die von KI ausgehen. Seiner eigenen Einschätzung nach waren er und der OpenAI-Chef sich einig, dass KI eine äußerst komplexe Technologie sei, die, wenn sie unkontrolliert bliebe, ernsthafte gesellschaftliche Probleme verursachen würde. Ihre Probleme, die von Voreingenommenheit und Halluzinationen bis hin zu ihrem Potenzial reichten, Wahlergebnisse durch falsche Informationen zu verfälschen, verlangten Aufmerksamkeit.

„Ich glaube, er meinte es ernst mit seinen Bedenken“, sagte Marcus und wies darauf hin, dass Altman am selben Tag Geburtstag hatte wie J. Robert Oppenheimer, der theoretische Physiker, der die Atombombe erfunden hatte. „Er will nicht die Zerstörung der Welt herbeiführen.“

Ein Jahr später hat sich die Stimmung jedoch deutlich geändert.

Als Marcus Washington im letzten Jahr verließ, war er vom ChatGPT-Chef „größtenteils beeindruckt“, doch eine Reihe von Entwicklungen in und um OpenAI haben ihn seitdem in höchste Alarmbereitschaft versetzt.

Der dramatischste Moment nach der Anhörung auf dem Capitol Hill kam im November, als Altman als CEO von OpenAI entlassen wurde. Der Vorstand des Unternehmens war zu dem Schluss gekommen, dass „Er war in seiner Kommunikation nicht immer aufrichtig.“

Einer der Hauptvorwürfe gegen Altman war, dass er versucht habe, Vorstandsmitglieder davon zu überzeugen, Helen Toner, eine Vorstandskollegin, aus dem Vorstand zu drängen, nachdem sie veröffentlichte eine Forschungsarbeit kritisierte die Bemühungen von OpenAI, KI sicher zu machen. Laut Toner begann er auch, „andere Vorstandsmitglieder zu belügen“, um sie gegen sie aufzubringen.

Siehe auch  Vielleicht nutzen diese Naija-Künstler auch ChatGPT
Ehemaliges OpenAI-Vorstandsmitglied Helen Toner.
Jerod Harris/Getty Images

Wie Marcus sich erinnerte, „hat ihn die Welt bis dahin wie einen Heiligen behandelt“. Staatschefs wie der Franzose Emmanuel Macron, der Inder Narendra Modi und der Südkoreaner Yoon Suk Yeol bereiteten Altman während einer Weltreise im vergangenen Jahr einen staatsmännischen Empfang.

Obwohl die Entlassungsaffäre Silicon Valley erschütterte und wichtige Unterstützer von OpenAI wie Microsoft dazu veranlasste, sich die Wiedereinsetzung des entlassenen CEOs zu erbitten, sah Marcus deutlich erkennbare Anzeichen von Inkonsequenz.

Ein Beispiel: Als Senator John Kennedy Altman während der Anhörung im letzten Jahr fragte, ob er „viel Geld verdiene“, antwortete der CEO von OpenAI schnell, er habe „keinen Anteil an OpenAI“. Das war nicht die klarste Antwort, die er hätte geben können.

Altman behielt das Eigentum am OpenAI Startup Fund bis zum 29. Märzeine Eigentumsstruktur, über die der Vorstand laut Toner ursprünglich nicht informiert war. Altman ist auch Vorsitzender des Kernfusions-Startups Helion Energy und hat ein „undurchsichtiges Investmentimperium“ aufgebaut, das Anfang des Jahres mindestens 2,8 Milliarden Dollar wert war. Das Wall Street Journal berichtete diesen Monat darüber.

Vor diesem Hintergrund war Marcus kaum überrascht, als sich bei OpenAI erneut ein Drama um Inkonsistenzen entwickelte.

GPT-4o, das neue Modell von OpenAI, das im Mai vorgestellt wurde, wurde von Scarlett Johansson dafür kritisiert, dass es – ohne Erlaubnis – eine Stimme namens Sky verwendete, die der KI-Assistentin ähnelte, die sie im Film „Her“ sprach. Obwohl Altman später behauptete, dass Sky sollte „nie Johanssons Stimme ähneln“konnte er nicht anders, als „sie“ nach dem GPT-4o-Startevent zu twittern.

Medien werden von AMP nicht unterstützt. Tippen Sie für das volle mobile Erlebnis.

„Er sagt immer noch, die Ähnlichkeit sei reiner Zufall“, sagte Marcus. „Die Leute fragen sich: ‚Bin ich etwa dumm?‘ Die Reaktion im Moment ist, glaube ich, zu Recht, dass er uns für Narren hält.“

Die Sicherheitsverpflichtungen von OpenAI wurden in Frage gestellt, nachdem führende Sicherheitsforscher, darunter Ilya Sutskever und Jan Leike, das Unternehmen letzten Monat verließen. Auch der Umgang mit Mitarbeitern steht auf dem Prüfstand, nachdem Details über strenge Klauseln aufgetaucht waren, die den Mitarbeitern die Rücknahme ihrer unverfallbaren Ansprüche androhten, wenn sie keine Nichtverunglimpfungsvereinbarungen unterzeichneten.

Siehe auch  Vergessen Sie die Bezahlung für Redakteure, wenn Sie ChatGPT haben | von Will Scifi | April 2024

Das Problem der generativen KI

Generell ist Marcus besorgt, dass die Konzentration auf eine durch LLM geleitete generative KI die Branche auf den falschen Weg führt.

Er räumt zwar ein, dass die Technologie hinter ChatGPT ihre Vorteile hat, glaubt aber nicht, dass sie die Menschheit zu einer Form von KI führen wird, die es mit der menschlichen Intelligenz aufnehmen kann. Er verweist auf die „abnehmenden Erträge“, die jedes neue KI-Modell gezeigt hat, wobei die Leistungsverbesserungen scheinbar mit jedem neuen Modell geringer werden.

„Milliarden von Dollar wurden für sie ausgegeben, und das hat alles andere ausgehungert“, sagte Marcus. „LLMs sind nicht nutzlos. Sie können einige Dinge tun. Aber sie sind keine echte künstliche Intelligenz. Sie sind nicht vertrauenswürdig, sie sind nicht zuverlässig.“

Nicht alle sind seiner Meinung. In den letzten Monaten wurde Marcus von „KI-Pate“ wie Yann LeCun und Geoffrey Hinton wegen seiner Ansichten über die derzeit am meisten gehypte Technologie scharf kritisiert.

Marcus hat das Gefühl, dass er schon seit einiger Zeit darauf hingewiesen hat, dass LLMs nicht der Weg zur AGI sind, eine Idee, die seiner Meinung nach Leute wie LeCun – Metas Chef-KI-Wissenschaftler — habe ich bis vor kurzem nicht anerkannt.

Yann LeCun.
Kevin Dietsch/Getty Images

LeCun hat bereits zuvor vorgeschlagen, dass „LLMs eine Ausweichmöglichkeit auf dem Weg zur AGI sind“, aber er hat auch teilte die Ansicht dass „KI durch die Verstärkung der menschlichen Intelligenz eine neue Renaissance auslösen könnte, vielleicht eine neue Phase der Aufklärung.“ In einem Interview mit der Financial Times letzten Monat gab er ziemlich unverblümt zu, dass Absolventen des LLM-Programms ein „sehr begrenztes Verständnis von Logik“ hätten, was sie zu unwahrscheinlichen Kandidaten für AGI mache.

Marcus wertet das als kleines Zeichen der Hoffnung, dass den Menschen langsam die Grenzen der heutigen KI bewusst werden: „Was mir ein wenig Optimismus gibt, ist, dass die Menschen endlich der Realität ins Auge sehen.“

Seine Hoffnung ist nun, dass Altman dasselbe tun und sich der Realität des Chaos stellen kann, das hinter ihm liegt. Seine Botschaft an den OpenAI-Chef ist, dass es noch nicht zu spät ist, den Kurs zu ändern: „Kehren Sie zur Mission zurück. Machen Sie OpenAI wirklich zu einer Kraft des Guten.“

5/5 - (250 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein