Ein kürzlich veröffentlichter Artikel von Anthony Chemero von der UC erklärt das KI-Denken im Gegensatz zum menschlichen Denken.
Der Aufstieg der künstlichen Intelligenz hat bei Technologiemanagern, Regierungsbeamten und der breiten Öffentlichkeit unterschiedliche Reaktionen hervorgerufen. Viele sind von KI-Technologien wie ChatGPT begeistert und betrachten sie als nützliche Werkzeuge mit der Fähigkeit, die Gesellschaft zu revolutionieren.
Allerdings gibt es auch Bedenken bei einigen, die befürchten, dass jede Technologie, die als „intelligent“ bezeichnet wird, die Fähigkeit besitzen könnte, die menschliche Kontrolle und Dominanz zu übertreffen.
Die von der menschlichen Intelligenz unterschiedliche Natur der KI
Anthony Chemero von der University of Cincinnati, Professor für Philosophie und Psychologie am UC College of Arts and Sciences, behauptet, dass das Verständnis von KI durch die Linguistik durcheinander gebracht wird: KI sei zwar tatsächlich intelligent, könne aber nicht einmal so intelligent sein wie Menschen obwohl „es lügen und seinen Schöpfer verarschen kann.“
Laut unserem alltäglichen Wortgebrauch ist KI definitiv intelligent, aber es gibt intelligente Computer und das schon seit Jahren, erklärt Chemero in einem von ihm mitverfassten Artikel in der Zeitschrift Natur menschliches Verhalten.
Eigenschaften und Grenzen der KI
Zunächst heißt es in dem Papier, dass es sich bei ChatGPT und anderen KI-Systemen um große Sprachmodelle (LLM) handelt, die auf riesigen Datenmengen aus dem Internet trainiert werden, von denen viele die Vorurteile der Personen teilen, die die Daten veröffentlichen.
„LLMs erzeugen beeindruckende Texte, bilden aber oft ein Ganzes“, sagt er. „Sie lernen, grammatikalische Sätze zu bilden, erfordern aber viel, viel mehr Training als Menschen. Sie wissen nicht wirklich, was die Dinge bedeuten, die sie sagen“, sagt er. „LLMs unterscheiden sich von der menschlichen Kognition, weil sie nicht verkörpert sind.“
Die Leute, die LLMs gemacht haben, nennen es „Halluzinieren“, wenn sie Dinge erfinden; Obwohl Chemero sagt: „Es wäre besser, es ‚Bullsh*tting‘ zu nennen“, weil LLMs einfach Sätze bilden, indem sie wiederholt das statistisch wahrscheinlichste nächste Wort hinzufügen – und sie wissen nicht oder kümmern sich nicht darum, ob das, was sie sagen, wahr ist.
Und mit ein wenig Anstupsen, sagt er, könne man ein KI-Tool dazu bringen, „böse Dinge zu sagen, die rassistisch, sexistisch und auf andere Weise voreingenommen sind“.
Das menschliche Element in der Intelligenz
Die Absicht von Chemeros Artikel besteht darin, zu betonen, dass die LLMs nicht so intelligent sind wie Menschen, weil Menschen verkörpert sind: Lebewesen, die immer von anderen Menschen sowie materiellen und kulturellen Umgebungen umgeben sind.
„Das bringt uns dazu, uns um unser eigenes Überleben und die Welt, in der wir leben, zu kümmern“, sagt er und weist darauf hin, dass LLMs nicht wirklich in der Welt sind und sich um nichts kümmert.
Die wichtigste Erkenntnis ist, dass LLMs nicht so intelligent sind wie Menschen, weil es ihnen „egal ist“, sagt Chemero und fügt hinzu: „Die Dinge sind uns wichtig.“ Wir engagieren uns für unser Überleben. Die Welt, in der wir leben, liegt uns am Herzen.“
Referenz: „LLMs unterscheiden sich von der menschlichen Kognition, weil sie nicht verkörpert sind“ von Anthony Chemero, 20. November 2023, Natur menschliches Verhalten. DOI: 10.1038/s41562-023-01723-5