[ad_1]
Turing sagte weiter voraus, dass Computer – ein Begriff, der 1950 noch nicht weit verbreitet war, obwohl Turing sie bereits baute – bis zum Jahr 2000 in 70 Prozent der Fälle einen Menschen täuschen könnten, und dass „man dazu in der Lage sein wird.“ sprechen von Maschinen, die denken, ohne zu erwarten, dass ihnen widersprochen wird.“ Vielleicht lag er um 23 Jahre daneben, aber in der düsteren Welt der Technologievorhersagen ist das ein großer Gewinn. Mit dem jüngsten Aufstieg der generativen KI, die auf Befehl Text, Bilder und Videos produziert, haben Computer den Turing-Test bestanden. Programme wie chatgpt können in einem Dialog überzeugend als Menschen auftreten.
Andererseits ist es wahrscheinlich zutreffender zu sagen, dass die KI es getan hat den Turing-Test gebrochen. Turing schlug vor, dass eine Maschine intelligent sein müsse, wenn sie Sprache fließend nutzen könne. Denn das Chatten – die Fähigkeit, einen echten Dialog aufrechtzuerhalten – setzt einen ausgefeilten Sprachgebrauch voraus. Aber es ist immer noch nicht klar, ob die heutigen Chatbots intelligent sind oder etwas tun, was man am besten so beschreiben kann Denken. Tatsächlich scheint uns die heutige KI zu zeigen, dass Sprache unabhängig von Intelligenz sein kann. Aus diesem Grund ist ein Wettlauf um die Suche nach neuen Maßstäben und Maßstäben für die Maschinenintelligenz im Gange.
Woher KI-Halluzinationen kommen
Der erste echte Chatbot wurde 1966 von Joseph Weizenbaum entworfen, einem deutschen Kommunikationsingenieur und Professor am MIT. Er nannte es ELIZA nach Eliza Doolittle aus George Bernard Shaws „Pygmalion“, in dem ein Linguist versucht, einer Frau namens Eliza ihre schlechten Sprachgewohnheiten beizubringen. Weizenbaums Programm war seiner Meinung nach grob und brüchig: Es reagierte mit vorgefertigten Sätzen entsprechend den Auslösewörtern in der Eingabe eines Menschen. Doch dann bat er seine Sekretärin, mit ihm zu plaudern, und nach kurzer Zeit forderte sie Weizenbaum auf, aus Gründen der Privatsphäre den Raum zu verlassen. Sie wusste so gut wie jeder andere, dass das Programm nicht empfindungsfähig war, und dennoch wurde sie sofort in ein vertrauliches Gespräch hineingezogen. Diese Erfahrung radikalisierte Weizenbaum gegen KI, da er sie für gefährlich hielt, nicht weil sie intelligent war, sondern weil der Turing-Test zu einfach zu bestehen war und es zu wahrscheinlich machte, dass Menschen Maschinen ungerechtfertigterweise Intelligenz zuschreiben würden.
Sich zu leicht von einem Chatbot täuschen zu lassen, ist als „ELIZA-Effekt“ bekannt geworden. Und eine Möglichkeit, generative KI zu betrachten, ist, dass wir alle gemeinsam im Griff einer Massentäuschung sind, eines globalen ELIZA-Effekts. Schlimmer noch, wir sind dabei, Entscheidungen der KI zu überlassen, weil wir, wie Turing vorhergesagt hat, glauben, dass sie denken können.
Sprachmodelle wie ChatGPT sagen das nächste Wort in einem Satz voraus. Das klingt sehr einfach, aber denken Sie darüber nach, wie Sie das nächste Wort wählen, wenn Sie darüber sprechen, ob Sie ins Kino gehen sollen. Sie ziehen tatsächlich Wörter wie „Barbie“ und „Popcorn“ aus einem riesigen Vokabular und entscheiden, welche Wörter relevant sind und was Sie hervorheben möchten. Damit ChatGPT diese Wörter an der richtigen Stelle platzieren kann, ist es auf eine enorme Menge an Eingaben angewiesen, in neueren Modellen auf mehr als eine Billion Wörter aus dem Internet, von Websites wie Reddit und Wikipedia. Der Algorithmus lernt, alle Wörter zueinander in Beziehung zu setzen, sodass, wenn Sie „Barbie“ sagen, die nächsten Wörter wahrscheinlich „Film“, „Puppe“ und andere enthalten. Sprachmodelle lernen also, wie Wörter gruppiert werden, und werden von dort aus weiter trainiert, um bestimmte Aufgaben wie Chatten auszuführen. Wenn Ihnen das System sagt: „Im Barbie-Film geht es in Wirklichkeit um den amerikanischen Feminismus im 21. Jahrhundert“, können Sie sich des Gefühls kaum erwehren, dass Sie es mit einem intelligenten Wesen zu tun haben. Aber wie Weizenbaum in den 1960er Jahren erkannte, kann eine Einrichtung mit Sprache höchst irreführend sein.
Das Fehlen echter Informationen in ChatGPT erklärt, warum eine Version des Bots dem Reporter Kevin Roose davon erzählte dass es ihn liebte, dass er seine Frau verlassen sollte, und dann, beunruhigend, dass sie „am Leben sein wollte“. Wir wissen auch, dass Sprachmodelle „halluzinieren“ und Fakten erfinden, um plausible Sätze zu ergänzen, wie im berüchtigten Fall des Anwalts die einen von ChatGPT verfassten Brief eingereicht hatten, nur um festzustellen, dass keiner der zitierten Fälle real waroder die Hotline für Essstörungen, deren Bot empfohlene strenge Kalorieneinschränkungen und andere Verhaltensweisen die die Störungen aufrechterhalten, anstatt sie zu bekämpfen. KI kann Wörter in die „richtige“ Reihenfolge bringen, um sinnvolle Sätze zu bilden, aber nicht alle sinnvollen Sätze sind gut.
In Platons Dialog „Ion“ trifft die Titelfigur, eine Rhapsode, die Homers Gedichte singt, auf Sokrates, der ihn darüber ausfragt, was ein Rezitator von Gedichten wirklich weiß. Ion sagt, dass er alles weiß, was einem in „Die Ilias“ und „Die Odyssee“ begegnet: Militärstrategie, Navigation und vieles mehr. Sokrates weist darauf hin, dass Generäle wahrscheinlich mehr darüber wissen, was in einem Krieg zu tun ist als Ion, und Ion muss zugeben. Was ein Dichter „weiß“, sagt Sokrates, ist nur die Sprache, nicht das, was uns die Sprache über die Welt sagt.
Anderer Test, gleicher Fehler?
Der Wettlauf um die Suche nach neuen Maßstäben für Intelligenz konzentriert sich jedoch nicht auf dieses Problem der Sprache. Wissenschaftler und Philosophen schlagen viele verschiedene Merkmale der Intelligenz vor und suchen dann nach Anzeichen dieser Merkmale in Maschinen.
Ein aktuelles KI-Papier listet nicht weniger als 14 „Indikatoren“ für Intelligenz auf, während der Philosoph David Chalmers kürzlich gewann eine 25-jährige Wette dass wir nicht von der KI lernen würden, wie Bewusstsein funktioniert, Listen 12. Einige dieser Indikatoren sind sehr anspruchsvoll, wie zum Beispiel „einheitliche Handlungsfähigkeit“ – definiert als die Fähigkeit, alle mentalen Inhalte im Dienste einer nachhaltigen Persönlichkeit zu sammeln – oder die Fähigkeit, sich von der Welt abzugrenzen und somit zu besitzen „ „Modelle“ sowohl des Selbst als auch der Welt. Man kann jedoch auch auf einfachere Dinge zurückgreifen: Bitten Sie ChatGPT, Ihnen eine Geschichte ohne den Buchstaben „e“ zu schreiben, in Anlehnung an den Roman „A Void“ des Autors Georges Perec. Heutige Sprachmodelle stolpern über diese Aufgabe und können sie nur ein paar Zeilen lang ausführen, bevor sie „vergessen“ und zum normalen Englisch zurückkehren.
Aber diese Vorschläge folgen im Allgemeinen Turings Modell: Gehen Sie davon aus, wie Sprache und Intelligenz zusammenhängen, und prüfen Sie, ob Sie diese in der KI finden können. Vielleicht ist es dieses Modell selbst, das irreführend ist.
Anders ausgedrückt: Was wäre, wenn das Bestehen einer Reihe solcher Benchmarks einfach auch nicht viel über die Intelligenz verrät – und, was noch wichtiger ist, uns nicht viel über den Nutzen von KI verrät? Die Literaturwissenschaftlerin Lydia Liu machte mich darauf aufmerksam, dass alle Tests im „Turing-Stil“ Intelligenz auf einen Wettbewerb zwischen Menschen und Maschinen reduzieren und uns von der Sprache des Chats selbst ablenken.
Wir fragen nicht, ob Romane „intelligent“ sind; wir interpretieren sie. Und große Sprachmodelle werden für viele, viele Romane in einem riesigen Datensatz trainiert, der Dinge wie Wikipedia, Reddit und mehr umfasst. Wir können uns ChatGPT so vorstellen, dass es fast alles, was jemals geschrieben wurde, neu mischt und eine „rhapsodische“ Sprache produziert, die nicht unbedingt Intelligenz oder Wahrheit widerspiegelt. Je fortgeschrittener sie wird, desto weniger ähnelt die KI einem menschlichen Geist, sondern eher einer Kulturmaschine.
Turing war ein Einzelgänger, der einen Großteil seiner Zeit allein verbrachte und selbstständig mathematische Probleme bearbeitete, anstatt sich auf die Ergebnisse anderer zu verlassen. Aber als es darum ging, nach Maschinen zu fragen, die intelligent sein könnten, verriet er, dass er dachte, Intelligenz sei sozial. Wenn wir etwas Neues erfinden – wie die Computer, an denen er gearbeitet hat – beteiligen wir uns an der „kollektiven Suche“ und suchen nicht nach einer Antwort in einem Labyrinth von Fakten, sondern versuchen, auf den kollektiven wissenschaftlichen Errungenschaften aufzubauen, die vor uns liegen. Alle schönsten intellektuellen Errungenschaften der Menschen werden geteilt, dachte er, und etwas Neues zu finden bedeutet, das Projekt menschlichen Wissens zu erweitern, nicht allein, sondern gemeinsam.
Vielleicht ist KI, die auf der Alltagssprache von Reddit und einer Vielzahl von Romanen trainiert ist, eine unvollkommene Widerspiegelung des menschlichen Wissens, aber wenn sie unsere Fähigkeiten erweitert, spielt das keine Rolle. KI muss dafür nicht intelligent sein, genauso wie Ion kein General sein musste. Was wirklich zählt, ist, dass wir uns um die Dinge kümmern, die Maschinen tatsächlich sagen, damit wir ihre Gefahren begrenzen und sie zur Erweiterung des menschlichen Wissens nutzen können.
Leif Weatherby ist außerordentlicher Professor für Deutsch und Direktor des Digital Theory Lab an der New York University. Seine Texte sind in Publikationen wie der New York Times und dem Daily Beast erschienen.
[ad_2]