„Was die großen Sprachmodelle gut können, ist zu sagen, wie eine Antwort klingen sollte, was sich von dem unterscheidet, was eine Antwort sein sollte.“
AI’m With Stupid
Der Robotikforscher und KI-Experte Rodney Brooks argumentiert, dass wir die großen Sprachmodelle von OpenAI, auf denen sein Blockbuster-Chatbot chatgpt basiert, erheblich überschätzt haben.
In einem tolles Interview mit IEEE-SpektrumBrooks argumentiert, dass diese Werkzeuge viel dümmer sind, als uns bewusst ist, ganz zu schweigen davon, dass sie auf intellektueller Ebene bei jeder Aufgabe mit Menschen konkurrieren können. Insgesamt seien wir vieler Sünden schuldig, sagt er Die Zukunft der KI kann schlecht vorhergesagt werden.
Um es kurz zu machen: Ist KI bereit, zu einer Art künstlicher allgemeiner Intelligenz (AGI) zu werden, die auf einem ähnlichen intellektuellen Niveau wie Menschen agieren könnte?
„Nein, weil es kein zugrunde liegendes Modell der Welt gibt“, sagte Brooks der Veröffentlichung. „Es hat keine Verbindung zur Welt. Es ist eine Korrelation zwischen Sprache.“
Reality-Check
Brooks‘ Kommentare sind eine wertvolle Erinnerung an die aktuellen Einschränkungen der KI-Technologie und daran, wie einfach es ist, ihren Ergebnissen eine Bedeutung zu verleihen, obwohl sie so konstruiert wurden, dass sie einfach wie Menschen klingen – und nicht wie Vernunft.
„Wir sehen, wie eine Person etwas tut, und wir wissen, was sie sonst noch tun kann, und können schnell ein Urteil fällen“, sagte er IEEE-Spektrum. „Aber unsere Modelle zur Verallgemeinerung von einer Leistung auf eine Kompetenz gelten nicht für KI-Systeme.“
Mit anderen Worten: Aktuelle Sprachmodelle sind nicht in der Lage, die Bedeutung logisch abzuleiten, obwohl sie den Eindruck erwecken, dass sie dies könnten – was den Benutzer leicht irreführen kann.
„Die großen Sprachmodelle sind gut darin, zu sagen, was eine Antwort sein sollte klingt wiewas sich von dem unterscheidet, was eine Antwort sein sollte Sei„, sagte Brooks.
Komplett falsch
Der Forscher sagte, dass er mit großen Sprachmodellen experimentiert habe, um ihm bei der „arkanen Codierung“ zu helfen – dabei aber auf ernsthafte Probleme gestoßen sei.
„Es gibt eine Antwort mit absoluter Sicherheit, und ich glaube es irgendwie“, sagte Brooks IEEE-Spektrum. „Und in der Hälfte der Fälle ist es völlig falsch. Und ich verbringe zwei oder drei Stunden damit, diesen Hinweis zu verwenden, und dann sage ich: ‚Das hat nicht funktioniert‘, und es passiert einfach etwas anderes.“
„Das ist nicht dasselbe wie Intelligenz“, fügte er hinzu. „Es ist nicht dasselbe wie interagieren. Es geht darum, etwas nachzuschlagen.“
Kurz gesagt, Brooks glaubt, dass zukünftige Iterationen der Technologie an einigen interessanten Orten landen könnten – „aber nicht bei AGI“.
Und angesichts der Risiken, die damit verbunden sind, dass ein KI-System die Intelligenz eines Menschen verdrängt, ist es wahrscheinlich besser so.
Mehr zu ChatGPT: ChatGPT schreibt gerne Schmutz über unheimlich obskuren Sexakt