Ist Denken bloß die regelbasierte Transformation von Symbolen und Strukturen?

Quelle: Foto von google DeepMind

Die neueste Version von chatgpt wirft erneut die Frage auf, die seit Jahrzehnten im Zusammenhang mit künstlicher Intelligenz (KI) im Raum steht: Kann ein Computer denken? Wieder einmal verschieben wir die Messlatte für das, was als Beweis dafür gelten kann, dass Computer tatsächlich denken können.

In den 50er und 60er Jahren entschieden Pioniere der Computerwissenschaften, dass, wenn ein Computer einen Menschen in einer Schachpartie schlagen könnte, dies ein überzeugender Beweis dafür wäre, dass Computer denken können. (Es gibt viel zu diskutieren darüber, warum dies der beste Test wäre, um zu beurteilen, ob Computer eine Art Wendepunkt in Richtung Rationalität erreicht haben, aber das ist ein anderes Thema.) Dann, im Jahr 1997, wurde das, was einst wie eine futuristische Vision schien, zur neuen Realität. Deep Blue (ein von IBM entwickeltes System zum Schachspielen) besiegte Schachgroßmeister Garry Kasparov. Deep Blue beruhte auf purer Rechenleistung – es konnte 200 Millionen Züge pro Sekunde simulieren. Kaum war das Konfetti auf den Boden gefallen, aktualisierten die Leute ihre Einschätzungen darüber, was es bedeutet, wenn ein Computer denkt, und stellten fest, dass dieser Sieg roher Rechenkraft und nicht einem Verstand zu verdanken war. Die Torpfosten hatten sich verschoben.

Artikel wird nach der Anzeige fortgesetzt

Fast ein Jahrzehnt später forderte AlphaGo einen Go-Großmeister heraus. Nun war AlphaGo eine andere Art von Spiel – es konnte nicht gewonnen werden, indem man sich ausschließlich auf programmierte Züge verließ; stattdessen konnte AlphaGo von es ist eigene Erfahrung (Buckner, 2024). Tatsächlich war der an dem Projekt arbeitende Programmierer schockiert und bestürzt über den Zug, der sich als der entscheidende herausstellte – der Programmierer, der sicher war, dass AlphaGo einen fatalen Fehler gemacht hatte, konnte nicht vorhersagen, wie dieser Zug das Spiel verändern würde, aber der Computer konnte es offensichtlich – und der Computer gewann. AlphaGos Sieg auf diese unvorhersehbare und unprogrammierte Weise Trotzdem ließ die Frage offen, ob ein Computer denken kann.

Siehe auch  Hacker könnten ChatGPT verwenden, um Schiffe zu infiltrieren

Natürlich gibt es gute Gründe, diese Frage offen zu lassen, und das liegt zum Teil daran, dass es, wie sich herausstellt, kompliziert ist, zu definieren, was es bedeutet, einen Verstand zu haben. AM Turing argumentierte, dass „ob ein System einen Verstand hat oder wie intelligent es ist, davon abhängt, was es kann und was nicht.“ (Haugeland, Craver & Klein, 2023) Wenn sich ein System so sehr wie ein Mensch verhält, dass ein Mensch den „Geist“ des Systems nicht von dem eines Menschen unterscheiden kann, würde man davon ausgehen, dass dieses System intelligent ist – oder über Vernunft verfügt.

Das ist eine Ansicht darüber, was es bedeutet, einen Verstand zu haben. Eine andere Möglichkeit, den Verstand zu definieren, besteht darin, ihn vom Gehirn zu unterscheiden. René Descartes beispielsweise glaubte, dass das, was er „gesunden Menschenverstand“ nannte, eine Möglichkeit sein könnte, die Unterscheidung zu treffen. Hier meinte er mit gesundem Menschenverstand die Fähigkeit, zu schlussfolgern und zwischen wahr und falsch zu unterscheiden. In der kartesischen Sichtweise unterscheiden sich Menschen von Tieren, weil Menschen einen Verstand haben und Tiere nicht. Und wie kam er zu diesem Schluss: Weil Menschen sprechen können. „Keine unserer äußeren Handlungen kann jedem, der sie untersucht, zeigen, dass unser Körper nicht nur eine sich selbst bewegende Maschine ist, sondern eine Seele mit Gedanken enthält, mit Ausnahme von Wörtern oder anderen Zeichen, die für bestimmte Themen relevant sind, ohne irgendeine Leidenschaft auszudrücken.“ (Descartes: Philosophische Briefe, Aus dem Brief an den Marquess of New Castle, 23. November 1646)

Artikel wird nach der Anzeige fortgesetzt

Nun, große Sprachmodelle erschweren diese Debatte – zumindest in der Art, wie Descartes sie formuliert. Das liegt daran, dass sie Sprache haben, aber die Frage bleibt: Haben sie Wissen oder Rationalität? Können sie auf die gleiche Weise lernen wie Menschen? Oder sind sie nur probabilistische, Muster bildende Systeme – was die Linguistikprofessorin Emily Bender, PhD, an der University of Washington als „stochastische Papageien“ bezeichnet.

Siehe auch  Ich habe ChatGPT nach dem Preis von Ethereum Classic gefragt, die Reaktion war begeistert

Es ist wirklich kein Wunder, dass uns das verwirrt. Zur gleichen Zeit, als Kognitionswissenschaftler Modelle des menschlichen Geistes und Theorien zur Erklärung von Verhaltensweisen entwickelten, entstand die Informatik als Disziplin. Computersysteme wurden zu einer einflussreichen Metapher für Kognitionswissenschaftler, die begannen, Wörter wie Verarbeitungsgeschwindigkeit, Herunterladen und Speichern zu verwenden, um menschliche neuronale Prozesse zu beschreiben. Zur gleichen Zeit übernahmen Informatiker von Kognitionswissenschaftlern Ausdrücke wie neuronal Netzwerke beziehen sich auf Berechnungen von Algorithmen. Dass jedes Feld Analogien aus einem anderen entlehnt, könnte der Grund dafür sein, dass wir die beiden vermischen.

Auf den ersten Blick scheint es offensichtlich: Ein Computer ist eine Maschine; er ist kein Mensch und kann nicht so lernen wie ein Mensch, und das Lernen läuft bei einem Computer anders ab als bei einem Menschen. Aber gehen wir etwas tiefer: Inwiefern unterscheidet sich ein Computer, der anhand unzähliger Datenströme trainiert wird, von einem Kleinkind, das neue Wörter lernt? Sind wir nicht alle bloß probabilistische Musterdetektoren? Neurowissenschaftler und Psychologen bezeichnen das menschliche Gehirn oft als Vorhersagemaschine. Wenn wir also sagen, dass KI nur Vorhersagen macht, worin liegt dann der Unterschied zu dem, was wir tun?

Artikel wird nach der Anzeige fortgesetzt

Bender würde argumentieren, dass es auf die Absicht ankommt. Eine Maschine kann zwar Sprache haben, aber keine kommunikative Absicht. Große Sprachmodelle können also konventionelle Bedeutungen lernen, weil sie standardisiert sind und keine Interpretationen erfordern. Aber kommunikative Absicht beginnt mit einem Ziel und einer Absicht. Für einen Computer könnte „es ist heiß hier drin“ etwas über die Temperatur und seine Interpretation von heiß bedeuten – vielleicht alles über 22 Grad. Aber für einen Menschen könnte „es ist heiß hier drin“ als Aufforderung interpretiert werden, das Fenster zu öffnen oder die Klimaanlage einzuschalten. Der Mensch kann Pragmatik erklären – die Bedeutung jenseits von Syntax und Semantik. Andere könnten hinzufügen, dass Denken mentale Repräsentationen erfordert, die ein Computer nicht hat.

Siehe auch  ChatGPT erlebte seinen zweiten massiven Ausfall an einem Tag – Gemini und Claude hatten ebenfalls Probleme

Vertreter der Gegenseite könnten argumentieren, dass Intelligenz oder Denken einfach die regelkonforme Transformation von Symbolen und Strukturen sei – und das sei alles. Computer tun das, und wir tun das, und daran ist nichts Außergewöhnliches oder Diskussionswürdiges.

Ein Großteil des Hypes und der Kontroversen um große Sprachmodelle dreht sich um Sprache und darum, wie wir Wörter wie Intelligenz, Geist und Denken definieren. Es zeigt, was es bedeutet, intelligent zu sein, was es bedeutet, ein Mensch zu sein, und warum wir von Maschinen gleichzeitig erwarten, dass sie unfehlbar sind, und uns dennoch wünschen, dass sie menschlicher sind (wie ein Mensch kommunizieren). Man muss sich fragen, ob die natürliche Sprache, die von großen Sprachmodellen wie ChatGPT, Gemini oder Claude verwendet wird, dem System einen Anstrich von Intelligenz verleiht, nur weil es natürliche Sprache versteht und in ihr kommuniziert. In einer extremen kartesischen Sichtweise könnte man davon ausgehen, dass diese Systeme aufgrund ihrer Sprachverwendung vernünftig sind. Scheint das ausreichend?

Verweise

Bender, EM, & Koller, A. (2020, Juli). Auf dem Weg zur NLU: Über Bedeutung, Form und Verständnis im Zeitalter der Daten. In Proceedings der 58. Jahrestagung der Vereinigung für Computerlinguistik (S. 5185-5198).

Bender, EM, Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, März). Über die Gefahren stochastischer Papageien: Können Sprachmodelle zu groß sein?🦜. In Proceedings der ACM-Konferenz 2021 zu Fairness, Rechenschaftspflicht und Transparenz (S. 610-623). doi.org/10.1145/3442188.3445922

Buckner, CJ (2024). Vom Deep Learning zu rationalen Maschinen: Was uns die Geschichte der Philosophie über die Zukunft der künstlichen Intelligenz lehren kann. Oxford University Press.

Descartes, R. (nd). Im Diskurs über Methoden, Optik, Geometrie und Meteorologie. Aufsatz, Hackett Publishing.

Haugeland, J., Craver, CF, & Klein, C. (2023). Mind Design III: Philosophie, Psychologie und künstliche Intelligenz. The MIT Press.

5/5 - (465 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein