Sam Altman, der charismatische Chef von OpenAI, hätte den Zorn des Vorstands auf sich gezogen, weil der Manager ihm verheimlicht hätte, dass der Algorithmus hinter chatgpt in der Lage sei, Mathematik zu betreiben. Das Gerücht wurde nicht bestätigt, aber es ist eine Gelegenheit, daran zu erinnern, dass bis heute alle künstlichen Intelligenzen über Mathematik stolpern.
Was wäre, wenn die Mathematik schuld wäre? Seit dem 22. November steht diese Disziplin im Mittelpunkt des Psychodramas um die wahre Entlassung von Sam Altman, dem CEO des Unternehmens OpenAI, das die ChatGPT-Software entwickelt hat.
Der gestürzte Chef wurde am Dienstag, dem 21. November, nach einer Pattsituation zwischen einigen Mitarbeitern und dem Vorstand wieder in seine Pflichten aufgenommen. Letzterer musste nachgeben, nachdem er sich eine Woche zuvor bei Herrn ChatGPT bedankt hatte, ohne eine genaue Erklärung abzugeben.
Geheimnisvolles Q*
Tatsächlich sei Sam Altmans erste Entlassung teilweise durch einen Brief besorgter Mitarbeiter ausgelöst worden, sagte er. „Reuters“ Mittwoch, 22. November. Sie machten die Vorstandsmitglieder auf die Leistungsfähigkeit des internen Algorithmus aufmerksam, der im Rahmen eines Geheimprojekts namens Q* eine als „besorgniserregend“ beschriebene Schwelle überschritten hätte. Welche ? GPT wäre es gelungen, … mathematische Probleme der Grundstufe zu lösen.
Die Existenz dieses Briefes, der auch von der Seite „The Information“ erwähnt wird, konnte nicht offiziell bestätigt werden, und Reuters gibt zu, das berühmte Schreiben nicht gesehen zu haben. Andere Medien, wie die Seite „The Verge“behaupten, dass diese Gerüchte über ein mit Mathematik gespicktes ChatGPT wenig Substanz haben und dass der Vorstand behauptet, dass er nie einen Brief erhalten hat, der die Risiken des Q*-Projekts anprangert.
Auch wenn die Materie des Schreibens im Dunkeln bleibt, offenbart sein Inhalt eine oft ignorierte Realität: ChatGPT und KI im Allgemeinen sind bisher in Mathematik schrecklich. Schlechter : Laut Forschern der Stanford University und Kalifornienkommen die neuesten Versionen des berühmten Konversationsroboters von OpenAI mit bestimmten mathematischen Problemen weniger gut zurecht als die Vorgänger.
Diese Realität mag überraschend erscheinen. KI, diese Rechenbestien, sollte von vornherein kurzen Prozess mit der Mathematik machen. Auch mehrere ChatGPT-Nutzer waren von den Grenzen dieses Tools seit seiner Einführung im Dezember 2022 überrascht. „Ich fragte ihn: ‚Wenn fünf Maschinen fünf Objekte in fünf Minuten produzieren, wie lange brauchen dann 100 Maschinen, um 100 Artikel herzustellen?‘ Und er hat mir 100 Minuten gesagt. Das stimmt nicht!“ klagt ein Internetnutzer in einem Forum, das sich der künstlichen Intelligenz widmet. Die Antwort auf dieses für einen Mathematiker grundlegende Problem lautet fünf.
„Mathematik und Rechnen sind nicht ganz dasselbe“, bemerkt Vincent Corruble, Forscher am LIP 6 (dem Informatiklabor von Paris 6). Nur weil ein Modell wie ChatGPT durch seine Fähigkeit beeindruckt, mit gewöhnlichen Menschen zu chatten, heißt das nicht, dass es auch Mathematik wie ein Mensch „verstehen“ kann. „Für uns ist es zum Beispiel einfach, ein Dreieck in einem Bild zu erkennen, während es für eine Maschine viel schwieriger ist“, erklärt Nicolas Sabouret, Professor für Informatik und Spezialist für künstliche Intelligenz an der Universität Paris-Saclay.
Mathematik ist nicht (nur) Rechnen
Der Hauptgrund für die Allergie gegen die Mathematik von GPT – dessen Akronym für „Generative pre-trained Transformer“ oder „transformer generative pre-trained“ auf Französisch steht – ist, dass es nicht dafür programmiert wurde. „Es wurde entwickelt, um Sprache zu erzeugen, indem man auswählt, welches Wort in einem bestimmten Satz als nächstes kommt“, erklärt Tom Lenaerts, Professor an der Freien Universität Brüssel und Präsident der Benelux Association for Artificial Intelligence.
Mit anderen Worten: ChatGPT und andere große Sprachmodelle (LLM) nutzen ihre Rechenleistung, um Wahrscheinlichkeiten zu ermitteln und zu entscheiden, welche Wörter sie aus ihrer riesigen Datenbank – im Fall von ChatGPT dem gesamten Web – auswählen und so einen scheinbar bedeutungsvollen Satz bilden.
Dieser statistische Ansatz ermöglicht es diesen „Bots“ auch, Mathematik zu betreiben, wie Monsieur Jourdain Prosa macht: ohne es zu wissen. Sie werden kein Problem damit haben, zu antworten, dass „2 + 2“ gleich 4 ist. Aber indem sie in die Höhle der online gesammelten Daten und Schriften von Ali Baba eintauchen, werden diese Algorithmen herausfinden, dass die wahrscheinlichste Folge der Reihe von Zahlen und Zeichen „2“ ist + 2 =“ ist die Zahl 4.
Dies bedeutet nicht, dass diese KIs die Logik dieses Zusatzes „verstehen“. „Mathematik besteht aus dem Erlernen des Denkens, und künstliche Intelligenz ist nur Rechnen. Es ist sehr schwierig, logisches Denken nur durch Rechnen zu reproduzieren. Bestenfalls gelingt es diesen Maschinen, es nachzuahmen“, erklärt Nicolas Sabouret.
Und das ist kein neues Problem. Logic Theorist, eine der ersten Softwarelösungen für künstliche Intelligenz, die in den 1950er Jahren entwickelt wurde, „war so programmiert, dass sie wie ein Mathematiker argumentiert“, betont Vincent Corruble. Dieses Modell, das nicht darauf abzielte, Text zu generieren, sondern wie ein Mensch zu argumentieren, habe „schnell an seine Grenzen gestoßen“, präzisiert der LIP 6-Experte.
Im Laufe der Zeit ist die Mathematik zu einer der letzten Bastionen geworden, die sich der KI noch widersetzen. Da es „der künstlichen Intelligenz gelungen ist, den Menschen in Spielen wie Schach und Go zu verdrängen, scheint die Beherrschung der Mathematik eines der größten Hindernisse zu sein, die es zu überwinden gilt“, glaubt Vincent Corruble.
Aber „ohne bedeutende neue Entwicklungen in der Art und Weise, wie große Sprachmodelle entworfen werden, werden sie nicht in der Lage sein, Mathematik zu betreiben, weil sie keine logischen Überlegungen anstellen können“, sagt Tom Lenaerts.
Das Spektrum der künstlichen allgemeinen Intelligenz
Daher die Zweifel, die die von France 24 befragten Experten an den Gerüchten über Q* und seine zu mathematischen Überlegungen fähige KI äußerten. „Ein Sprachmodell ist eine Maschine, die auf der Grundlage von Wahrscheinlichkeiten arbeitet und die für die Mathematik zentralen Konzepte von ‚wahr‘ oder ‚falsch‘ nicht berücksichtigt“, erklärt Nicolas Sabouret.
Sollte es einem großen Sprachmodell gelingen, diese Schwelle zu überschreiten, „wäre das ein ziemlicher theoretischer Durchbruch“, versichert der „Guardian“ Andrew Rogoyski, Experte für künstliche Intelligenz an der University of Surrey.
„Reuters“ und „The Information“, die sich beide auf die Existenz des Briefes berufen, bestätigen, dass die Autoren dieses Schreibens die Fähigkeiten von Q* als „beunruhigend“ betrachten. Tatsächlich würde die Fähigkeit zur Mathematik den Algorithmus der „künstlichen allgemeinen Intelligenz“ näher bringen, schreibt „Reuters“.
Dieses Konzept der Super-KI bezieht sich auf „eine künstliche Intelligenz, die in der Lage wäre, jedes Problem zu lösen“, erklärt Nicolas Sabouret. Es sei auch „der Vergleich der Maschine mit dem Menschen“, fügt Vincent Corruble hinzu. Mit anderen Worten: Jedes Mal, wenn diese Algorithmen in das eindringen, was bisher das persönliche Territorium der Menschheit darstellte, wird das Gespenst der AGI ein wenig deutlicher.
In diesem Sinne wäre „das Wissen, wie man mathematisches Denken manipuliert, tatsächlich ein Schritt in Richtung allgemeiner künstlicher Intelligenz“, bestätigt Tom Lenaerts. Genug, um einige Leute ins Schwitzen zu bringen, insbesondere innerhalb von OpenIA. Sam Altmans Unternehmen definiert diese „Superintelligenz“ als „ein autonomes System mit der Fähigkeit, den Menschen bei fast allen wirtschaftlich nützlichen Aufgaben zu übertreffen“.
Aber für Nicolas Sabouret sind wir noch weit davon entfernt. Selbst wenn eine KI in der Lage wäre, Mathematik zu betreiben, „würde ihr das nicht mehr Autonomie geben oder sie gefährlicher machen“ und daher in der Lage sein, den Menschen zu ersetzen.