Es gibt eine gute Grund, nicht darauf zu vertrauen, was die heutigen KI-Konstrukte Ihnen sagen, und es hat nichts mit der grundlegenden Natur von Intelligenz oder Menschlichkeit, mit Wittgensteinschen Konzepten der Sprachrepräsentation oder sogar Desinfo im Datensatz zu tun. Wichtig ist nur, dass diese Systeme nicht zwischen so etwas unterscheiden Ist richtig und so etwas sieht aus richtig. Sobald Sie verstehen, dass die KI diese Dinge mehr oder weniger austauschbar betrachtet, macht alles viel mehr Sinn.

Nun, ich möchte keine der faszinierenden und weitreichenden Diskussionen darüber kurzschließen, die ständig in allen Formen von Medien und Gesprächen stattfinden. Wir haben alle, von Philosophen und Linguisten über Ingenieure und Hacker bis hin zu Barkeepern und Feuerwehrleuten, die hinterfragen und diskutieren, was „Intelligenz“ und „Sprache“ wirklich sind und ob etwas wie ChatGPT sie besitzt.

Das ist großartig! Und ich habe bereits viel gelernt, da einige der klügsten Leute in diesem Bereich ihren Moment in der Sonne genießen, während aus den Mündern vergleichbarer Babes frische neue Perspektiven kommen.

Aber gleichzeitig ist bei einem Bier oder Kaffee eine Menge zu sortieren, wenn jemand fragt: „Was ist mit all dem GPT-Zeug, irgendwie beängstigend, wie schlau die KI wird, oder?“ Wo fängt man an – bei Aristoteles, dem mechanischen Türken, dem Perzeptron oder „Aufmerksamkeit ist alles, was man braucht“?

Während eines dieser Chats bin ich auf einen einfachen Ansatz gestoßen, der meiner Meinung nach den Leuten hilft zu verstehen, warum diese Systeme sowohl wirklich cool als auch völlig unzuverlässig sein können, während sie ihre Nützlichkeit in einigen Bereichen und die erstaunlichen Gespräche, die in der Umgebung geführt werden, überhaupt nicht beeinträchtigen ihnen. Ich dachte, ich würde es teilen, falls Sie die Perspektive nützlich finden, wenn Sie mit anderen neugierigen, skeptischen Menschen darüber sprechen, die nichts von Vektoren oder Matrizen hören wollen.

Es gibt nur drei Dinge zu verstehen, die zu einer natürlichen Schlussfolgerung führen:

  1. Diese Modelle werden erstellt, indem sie die Beziehungen zwischen Wörtern und Sätzen usw. in einem riesigen Textdatensatz beobachten und dann ihre eigene interne statistische Karte erstellen, wie all diese Millionen und Abermillionen von Wörtern und Konzepten verknüpft und korreliert sind. Niemand hat gesagt, dies ist ein Substantiv, dies ist ein Verb, dies ist ein Rezept, dies ist ein rhetorisches Mittel; aber das sind Dinge, die sich natürlich in Nutzungsmustern zeigen.
  2. Diesen Modellen wird nicht speziell beigebracht, wie man Fragen beantwortet, im Gegensatz zu den bekannten Softwareunternehmen wie Google und Apple, die KI seit einem Jahrzehnt nennen. Diese sind im Grunde Mad Libs mit den Leerzeichen, die zu APIs führen: Jede Frage wird entweder berücksichtigt oder erzeugt eine generische Antwort. Bei großen Sprachmodellen ist die Frage nur eine Reihe von Wörtern wie jede andere.
  3. Diese Modelle haben eine grundlegende Ausdrucksqualität von „Vertrauen“ in ihre Antworten. In einem einfachen Beispiel einer Katzenerkennungs-KI würde es von 0 gehen, was bedeutet, dass es absolut sicher ist, dass es keine Katze ist, bis 100, was bedeutet, dass es absolut sicher ist, dass es eine Katze ist. Sie können ihm sagen: „Ja, es ist eine Katze“, wenn es eine Konfidenz von 85 oder 90 hat, was auch immer Ihre bevorzugte Antwortmetrik ergibt.
Siehe auch  Musk verwendet Wikipedia, um Labels für staatlich finanzierte Medien zuzuweisen

Angesichts dessen, was wir über die Funktionsweise des Modells wissen, stellt sich hier die entscheidende Frage: Was ist selbstbewusst um? Es weiß nicht, was eine Katze oder eine Frage ist, sondern nur statistische Beziehungen, die zwischen Datenknoten in einem Trainingssatz gefunden werden. Eine kleine Änderung würde den Katzendetektor genauso sicher machen, dass das Bild eine Kuh, den Himmel oder ein Stillleben zeigt. Das Modell kann sich nicht auf sein eigenes „Wissen“ verlassen, da es keine Möglichkeit hat, den Inhalt der Daten, mit denen es trainiert wurde, tatsächlich zu bewerten.

Die KI drückt aus, wie sicher sie ihrer Antwort ist erscheint dem Benutzer korrekt.

Das trifft auf den Katzendetektor zu, und es trifft auf GPT-4 zu – der Unterschied liegt in der Länge und Komplexität der Ausgabe. Die KI kann nicht zwischen einer richtigen und einer falschen Antwort unterscheiden – sie kann nur eine Vorhersage treffen wie wahrscheinlich eine Reihe von Wörtern ist als richtig zu akzeptieren. Aus diesem Grund muss es eher als der am umfassendsten informierte Bullshitter der Welt denn als Autorität zu irgendeinem Thema angesehen werden. Es weiß nicht einmal, dass es dich verarscht – es wurde darauf trainiert, eine Antwort zu erzeugen, die entspricht statistisch einer richtigen Antwortund es wird sagen irgendetwas um diese Ähnlichkeit zu verbessern.

Die KI kennt auf keine Frage die Antwort, weil sie die Frage nicht versteht. Es weiß nicht, was Fragen sind. Es „weiß“ nichts! Die Antwort folgt auf die Frage, weil, ausgehend von ihrer statistischen Analyse, diese Wortreihe am wahrscheinlichsten auf die vorherige Wortreihe folgt. Ob sich diese Wörter auf reale Orte, Menschen, Orte usw. beziehen, ist nicht materiell – nur, dass sie es sind wie echte.

Siehe auch  Eine Omicron-Infektion könnte die Immunität bei geimpften Personen enorm steigern

Aus dem gleichen Grund kann KI ein Monet-ähnliches Gemälde produzieren, das kein Monet ist – alles, was zählt, ist, dass es alle Eigenschaften hat, die Menschen dazu bringen, ein Kunstwerk als seines zu identifizieren. Die heutige KI nähert sich sachlichen Antworten so an, wie sie sich „Wasserlilien“ annähern würde.

Nun, ich beeile mich hinzuzufügen, dass dies kein originelles oder bahnbrechendes Konzept ist – es ist im Grunde eine andere Art, den stochastischen Papagei oder den Unterwasserkraken zu erklären. Diese Probleme wurden sehr früh von sehr klugen Leuten erkannt und sind ein guter Grund, Kommentare zu technischen Themen ausführlich zu lesen.

Aber im Zusammenhang mit den heutigen Chatbot-Systemen habe ich gerade festgestellt, dass Menschen diesen Ansatz intuitiv verstehen: Die Modelle verstehen keine Fakten oder Konzepte, sondern Beziehungen zwischen Wörtern, und ihre Antworten sind ein „künstlerischer Eindruck“ einer Antwort. Ihr Ziel ist es, wenn es darauf ankommt, die Lücke zu füllen überzeugendnicht korrekt. Aus diesem Grund ist seinen Antworten grundsätzlich nicht zu trauen.

Natürlich manchmal, sogar oft, seine Antwort Ist richtig! Und das ist kein Zufall: Bei vielen Fragen ist die Antwort, die am richtigsten aussieht, die richtige Antwort. Das macht diese Modelle so mächtig – und gefährlich. Es gibt so viel, was man aus einem systematischen Studium von Millionen von Wörtern und Dokumenten extrahieren kann. Und im Gegensatz zur exakten Nachbildung von „Wasserlilien“ gibt es eine Flexibilität der Sprache, die eine Annäherung an eine sachliche Antwort auch sachlich sein lässt – aber auch eine vollständig oder teilweise erfundene Antwort ebenso oder mehr so ​​erscheinen lässt. Das einzige, was die KI interessiert, ist, dass die Antwort richtig scannt.

Siehe auch  Hasbro Obi-Wan Lichtschwert, Lego Ich bin Groot

Dies lässt die Tür offen für Diskussionen darüber, ob dies wirklich Wissen ist, was, wenn überhaupt, die Modelle „verstehen“, ob sie irgendeine Form von Intelligenz erreicht haben, was Intelligenz überhaupt ist und so weiter. Her mit dem Wittgenstein!

Darüber hinaus lässt es auch die Möglichkeit offen, diese Werkzeuge in Situationen einzusetzen, in denen die Wahrheit keine wirkliche Rolle spielt. Wenn Sie fünf Varianten eines einleitenden Absatzes generieren möchten, um Schreibblockaden zu umgehen, ist eine KI möglicherweise unverzichtbar. Wenn Sie eine Geschichte über zwei gefährdete Tiere erfinden oder ein Sonett über Pokémon schreiben möchten, tun Sie es. Solange es nicht darauf ankommt, dass die Antwort die Realität widerspiegelt, ist ein großes Sprachmodell ein williger und fähiger Partner – und das scheint nicht zufällig der größte Spaß daran zu sein.

Wo und wann die KI einen Fehler macht, ist sehr, sehr schwer vorherzusagen, weil die Modelle zu groß und undurchsichtig sind. Stellen Sie sich einen Zettelkatalog von der Größe eines Kontinents vor, der über einen Zeitraum von hundert Jahren von Robotern organisiert und aktualisiert wird, ausgehend von Grundprinzipien, die sie im Handumdrehen entwickelt haben. Du denkst, du kannst einfach reingehen und das System verstehen? Es gibt eine richtige Antwort auf eine schwierige Frage und eine falsche Antwort auf eine einfache. Warum? Im Moment ist das eine Frage, die weder KI noch ihre Schöpfer beantworten können.

Dies kann sich in Zukunft, vielleicht sogar in naher Zukunft, ändern. Alles bewegt sich so schnell und unvorhersehbar, dass nichts sicher ist. Aber für den Moment ist dies ein nützliches mentales Modell, das man sich merken sollte: Die KI möchte, dass Sie es glauben, und wird alles sagen, um ihre Chancen zu verbessern.

4.9/5 - (233 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein