Von Matthias Ramaekers

Die menschliche Intelligenz bleibt im Vergleich zur sogenannten Intelligenz großer Sprachmodelle einzigartig.

Quelle: Pavel Danilyuk / Pexels

Sie haben wahrscheinlich bemerkt, dass die Forschung im Bereich der künstlichen Intelligenz (KI) ein boomendes Geschäft ist. Die jüngsten Fortschritte bei großen Sprachmodellen (LLMs), wie dem, das chatgpt antreibt, haben die Welt überrascht.

Ihre Fähigkeit zu menschenähnlicher Sprache und ihre Fähigkeiten zur Problemlösung veranlassten viele dazu, sich potenzielle Anwendungen oder Risiken für die Gesellschaft vorzustellen – darunter auch Geoffrey Hinton, der „Paten der KI“.

Der Artikel wird nach der Werbung fortgesetzt

Andere wiesen darauf hin, dass LLMs vergleichsweise begrenzte Kapazitäten für Aktivitäten haben, die Menschen mit geringem Aufwand ausführen, wie etwa Humor [1]kausales und kontrafaktisches Denken [2]und Logik [3]. Inwieweit ahmen diese Modelle also wirklich die menschliche oder gar allgemeine Intelligenz nach?

Abbildung 1 GPT 3.5 scheitert an einem einfachen relationalen Problem, anscheinend weil es an einem strukturell ähnlichen, aber semantisch nicht verwandten Problem untersucht wurde.

Quelle: Mattias Ramaekers

Die Beantwortung dieser Frage erfordert eine Definition von Intelligenz, aber es gibt viele Debatten darüber, wie Intelligenz zu definieren ist, ob menschliche oder künstliche Intelligenz [45]. Ich lasse diese Debatten beiseite und konzentriere mich auf eine Eigenschaft intelligenter Systeme, die meine Kollegen in der Labor für Lernen und implizite Prozesse interessieren sich für: die Fähigkeit zu lernen, das heißt, das Verhalten aufgrund vergangener Erfahrungen zu ändern [6].

Menschen und viele andere Organismen sind lernfähig [7]. Viele Lernpsychologen wie ich wären arbeitslos, wenn sie es nicht wären. Solche LLMs unter der Haube von ChatGPT lernen auch aus Erfahrungen mit verschiedenen Lernalgorithmen.

Wie vergleichen wir diese Systeme? Wir können sie hinsichtlich der Geschwindigkeit und Effizienz, mit der sie lernen, sowie der Flexibilität und Kreativität, mit der sie erlerntes Wissen anwenden, unterscheiden. Wir sehen jetzt erhebliche Unterschiede zwischen Menschen, anderen Tieren und künstlichen Systemen.

In puncto Geschwindigkeit ist der Mensch gegenüber modernster KI klar im Vorteil. Kurz gesagt, LLMs werden auf der Grundlage riesiger Datenmengen trainiert, aus denen sie im Wesentlichen lernen, vorherzusagen, welche (Teile von) Wörtern am wahrscheinlichsten auf vorherige (Teile von) Wörtern folgen, gefolgt von einer zweiten Trainingsrunde, um ihre Reaktionen auf den Menschen zu verfeinern -produzierte Eingabeaufforderungen und Fragen.

Diese Lerngeschichte reicht aus, um bemerkenswert menschenähnliche Reaktionen hervorzurufen. Dennoch erfordern LLMs in der Regel etwa vier bis fünf Größenordnungen oder etwa 50.000 Mal mehr Trainingsinstanzen als ein durchschnittliches menschliches Kind, um dieses Verhalten hervorzurufen [8]. Das Training von ChatGPT ist ein eher brutaler Ansatz zum Erlernen intelligenter sprachlicher Verhaltensweisen. Sie ermöglicht es, die zugrunde liegenden Gesetzmäßigkeiten der menschlichen Sprache zu erfassen, unterscheidet sich jedoch erheblich von der Art und Weise, wie Menschen Sprache erwerben.

Menschen sind nicht nur schnellere, sondern auch flexiblere Lerner. Kinder erwerben schnell die Fähigkeit, über neuartige Probleme flexibel nachzudenken und sich bereits nach wenigen Begegnungen oder bloßem Unterricht an neue Situationen anzupassen.

Dieses Kunststück bleibt eine Herausforderung für die hochmoderne KI. LLMs verfügen über eine deutlich verbesserte Generalisierungsfähigkeit, die jedoch schwer systematisch zu bewerten ist, da ihre Ausbildung praktisch alles umfasst, was Menschen jemals geschrieben haben. Wenn man neue Probleme oder Beispiele bekannter Probleme untersucht, erkennt man die Grenzen seiner Fähigkeiten, was darauf hindeutet, dass seine Antworten eher auf das Auswendiglernen von Problemlösungen als auf gründliches Verstehen zurückzuführen sind.

Ein weiteres Beispiel dafür, dass GPT3.5 ein einfaches relationales Problem scheitert. Die Argumentation ist richtig, kommt dann aber zu einer falschen (oder zumindest nicht unbedingt richtigen) Schlussfolgerung.

Quelle: Mattias Ramaekers

Aktuelle LLMs sind kein ideales Modell für Lernpsychologen, die untersuchen, wie Menschen lernen. Was macht den Menschen dann so einzigartig?

In unserem Labor nehmen wir die Perspektive der relationalen Rahmentheorie (RFT) ein. [9]die besagt, dass die menschliche Kognition und damit die Intelligenz auf unserer Fähigkeit zur relationalen Reaktion basiert – auf ein Ereignis im Hinblick auf seine Beziehung zu einem anderen zu reagieren.

Der Artikel wird nach der Werbung fortgesetzt

Wenn wir in einer verbalen, sozialen Gemeinschaft aufwachsen, lernen wir, Objekte und Ereignisse in unserer Umgebung auf vielfältige Weise in Beziehung zu setzen (A ist dasselbe wie B, A ist mehr als B, A ist kleiner als B, A ist Teil von B, A kommt nach B, A ist hier und B ist dort, A ist für B wie C für D und so weiter. Wir lernen auch, angemessen auf diese Beziehungen zu reagieren (z. B. wenn in Schachtel A eine Schokolade ist und in Schachtel B mehr als in Schachtel A, welche wählen Sie dann?). Mit der Zeit können die Beziehungen von den irrelevanten physikalischen Eigenschaften der zugehörigen Objekte abstrahiert werden, und wir können damit beginnen, sie willkürlich oder symbolisch auf Objekte anzuwenden (z. B. als Reaktion auf das Wort „Hund“ auf die gleiche Weise, wie Sie es bei einem echten Hund tun würden).

Siehe auch  Vielleicht möchte er einfach nur Urlaub machen: Es gibt eine Theorie, warum ChatGPT faul geworden ist

Diese Fähigkeit, „so tun, als ob“ „Dinge hängen zusammen“ bildet die Grundlage für schnelles, flexibles und generatives Lernen und letztendlich für das, was wir als intelligentes Verhalten betrachten (siehe [10] für weitere Beispiele). Es ist kein Zufall, dass viele der Untertests, aus denen sich moderne Intelligenztests zusammensetzen (z. B. Raven’s Progressive Matrices und andere Tests zum flüssigen Denken, verbales Denken, visuell-räumliches Denken usw.), relationales Verhalten bewerten und dass es vorläufige Beweise dafür gibt, dass relationales Training nahegelegt wird kann dazu beitragen, die Intelligenz von Kindern zu steigern [11]

Grundlegende Lektüren zu Künstlicher Intelligenz

Natürlich erkennen viele in der KI die Bedeutung des relationalen Denkens an und haben versucht, relationale Mechanismen in ihre Modelle zu integrieren. Bisher scheint jedoch keiner die „symbolische Ebene“ erreicht zu haben, die immer noch ausschließlich von Menschen eingenommen wird. Angenommen, die KI-Forschung möchte die Prozesse widerspiegeln, die den menschlichen Fähigkeiten zugrunde liegen, und nicht nur menschenähnliche Ergebnisse produzieren, wie dies derzeit der Fall ist.

Der Artikel wird nach der Werbung fortgesetzt

In diesem Fall ist ein anderer Ansatz erforderlich, der auf effizientes, kontextsensitives Lernen ausgerichtet ist. Bei meiner Suche im LIP-Labor versuchen wir, dies zu erreichen, indem wir Rechenmodelle entwickeln, die von den Kernideen der RFT inspiriert sind und die, wenn die Theorie stimmt, ein besseres (d. h. schnelleres und flexibleres) Modell des menschlichen Lernens liefern sollten.

Zurück zur Frage der Intelligenz von ChatGPT: Es ist wichtig anzumerken, dass es mit einem bestimmten Zweck entwickelt wurde: über eine Computerschnittstelle mit Menschen zu interagieren und kohärente Antworten auf jede Aufforderung zu liefern. Mit diesem Ziel vor Augen ist seine Leistung bemerkenswert.

Es ist nicht darauf ausgelegt, generell intelligent zu sein (also in der Lage, sich flexibel an neue Situationen oder Probleme anzupassen), und das ist auch nicht der Fall. Dennoch vermittelt es uns die Illusion von Intelligenz, weil es die intelligente menschliche Sprache nachahmt.

Siehe auch  Was sind die häufigsten Einsatzmöglichkeiten von ChatGPT in der Radiologie?

Matthias Ramaekers ist Forscher am Learning and Implicit Processes Lab. Der Autor möchte Jan De Houwer und Martin Finn für ihr Feedback zu früheren Versionen danken.

Verweise

Weitere Informationen finden Sie hier klärendes Stück vom Mathematiker Stephen Wolfram.

[1] Jentzsch, S. & Kersting, K. (2023). ChatGPT macht Spaß, aber es ist nicht lustig! Humor stellt immer noch eine Herausforderung für große Sprachmodelle dar. arXiv-Vorabdruck arXiv:2306.04563.

[2] Chomsky, N., Roberts, I. & Watumull, J. (2023). Noam Chomsky: Das falsche Versprechen von ChatGPT. Die New York Times, 8.

[3] Liu, H., Ning, R., Teng, Z., Liu, J., Zhou, Q. & Zhang, Y. (2023). Bewertung der logischen Denkfähigkeit von chatgpt und gpt-4. arXiv-Vorabdruck arXiv:2304.03439.

[4] Sternberg, RJ (2018). Theorien der Intelligenz. In SI Pfeiffer, E. Shaunessy-Dedrick und M. Foley-Nicpon (Hrsg.), APA-Handbuch für Begabung und Talent (S. 145–161). American Psychological Association. https://doi.org/10.1037/0000038-010

[5] Wang, P. (2007). Die Logik der Intelligenz. In Künstliche allgemeine Intelligenz (S. 31-62). Berlin, Heidelberg: Springer Berlin Heidelberg.

[6] De Houwer, J., Barnes-Holmes, D. & Moors, A. (2013). Was ist Lernen? Über Wesen und Vorzüge einer funktionalen Definition von Lernen. Psychonomic Bulletin & Review, 20631-642.

[7] De Houwer, J. & Hughes, S. (2023). Lernen in einzelnen Organismen, Genen, Maschinen und Gruppen: Eine neue Art, Lernen in verschiedenen Systemen zu definieren und in Beziehung zu setzen. Perspektiven der Psychologie, 18(3), 649-663.

[8] Frank, MC (2023). Überbrückung der Datenlücke zwischen Kindern und großen Sprachmodellen. Trends in den Kognitionswissenschaften.

[9] Hayes, SC, Barnes-Holmes, D. und Roche, B. (Hrsg.). (2001). Relationale Rahmentheorie: Eine post-Skinnerianische Darstellung der menschlichen Sprache und Kognition.

[10] Hughes, S. & Barnes-Holmes, D. (2016). Relationale Rahmentheorie: Das Grundkonto. Das Wiley-Handbuch der kontextuellen Verhaltenswissenschaft, 129-178.

[11] Cassidy, S., Roche, B., Colbert, D., Stewart, I. & Grey, IM (2016). Eine Intervention zum Training relationaler Rahmenkompetenzen zur Steigerung der allgemeinen Intelligenz und der schulischen Eignung. Lernen und individuelle Unterschiede, 47222–235. https://doi.org/10.1016/j.lindif.2016.03.001

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein