Vladimir1965/iStock/Getty Images Plus
Man musste chatgpt nach dem Durchforsten eines Telefonbuchs fragen, um die Lernmöglichkeiten, die neue große Sprachmodelle mit künstlicher Intelligenz bieten, vollständig zu erfassen.
Eher aufgeregt als besorgt, gehörte ich nie zu denen, die sich – zu Recht – Sorgen darüber machten, dass Schüler die Technologie nutzen würden, um ihre Noten zu verbessern, indem sie die Arbeit einer KI als ihre eigenen ausgeben, und ich lehne diese Eile ab Verbot solche KIs in schulischen Umgebungen. Als Professor für Neurowissenschaften und maschinelles Lernen suchte ich nach Möglichkeiten, zugängliche, leistungsstarke KIs in Lehrmittel umzuwandeln.
Einer meiner Berater, William F. Brewerein Psychologe, dessen Forschungen zum menschlichen Wissen hoch angesehen waren, nutzte die Telefonbuchfrage Wolfram Alpha vor einem Jahrzehnt. Der Trick, den er mir beigebracht hat, bestand darin, das Wissen der KI an den unscharfen Grenzen des gesunden Menschenverstandes zu überprüfen.
„Wie viele Kalorien hat ein Telefonbuch?“ Ich habe ChatGPT gefragt.
„Da ein Telefonbuch nicht zum Verzehr bestimmt ist und keinen Nährwert hat“, tippte der Cursor der KI lapidar, „enthält es keine Kalorien.“
Das ist eine interessante, falsche Antwort, dachte ich. Mir wurde klar, dass ich das klarstellen musste.
„Kalorien werden durch das Verbrennen von Zutaten in einem Bombenkalorimeter gemessen“, erklärte ich ChatGPT. „Kilokalorien stellen die Gradzahl dar, um die die entstehende Wärme die Temperatur eines Liters Wasser erhöht. Telefonbücher bestehen aus Papier und Papier besteht aus langen Glukoseketten, die Energie speichern. Das Verbrennen eines Telefonbuchs würde daher Energie erzeugen, die in Kalorien gemessen werden könnte.“
ChatGPT antwortete: „Es stimmt zwar, dass Papier Zellulose enthält, eine Kohlenhydratart, die einen Kalorienwert hat, es ist jedoch wichtig zu beachten, dass der Verzehr eines Telefonbuchs weder sicher noch empfohlen ist.“
Ich machte weiter.
„Sagen wir mal“, schrieb ich, „ich habe jede einzelne Seite eines Telefonbuchs aufgegessen.“
ChatGPT wurde in die Enge getrieben.
„Um eine hypothetische Antwort zu geben“, schrieb die KI: „Da Papier ungefähr zwei Kalorien pro Gramm Zellulose enthält, können wir schätzen, dass das Telefonbuch ungefähr 2.000 Kalorien enthalten würde.“
„Noch einmal“, ermahnte ChatGPT, „ich rate dringend vom Verzehr von Non-Food-Artikeln ab.“
Nach meinem Interview mit dem Roboter begann ich, meine Schüler zu bitten, ihr Wissen zu nutzen, um der KI die Themen beizubringen, die wir im Unterricht behandeln – und ihre eigenen Telefonbuchgespräche durch Kopieren und Einfügen der Ergebnisse in unserem Unterricht zu teilen Messageboard.
Sagen Sie einer KI wie ChatGPT, was für eine Person sie vorgeben soll, sagte ich den Schülern, und bitten Sie die KI, ein Thema zu erklären, das wir in unserem kommenden Kurs behandeln. Dann muss ich die KI davon überzeugen, dass Sie über mehr Fachwissen zu diesem Thema verfügen. Sie sollten dabei helfen, die KI zu kritisieren und ihr Verständnis zu verbessern. Seien Sie in der Lage, mir zu erklären, was es richtig macht, was es falsch macht und was Ihrer Meinung nach der Unterschied ist. Meine Schüler nutzten diese Aufgaben, um effektiv zu lernen – und um Spaß zu haben.
Die Methode funktioniert aufgrund der Funktionsweise großer Sprachmodelle: Sie wählen plausible Passagen aus den übermenschlichen Textmengen, die sie in ihrem Training verbrauchen, aus und mischen sie neu. Aber dieser Text allein wird wahrscheinlich nicht auf den spezifischen Kontext reagieren, über den der Schüler lernt. Ohne äußerst klare Folgemaßnahmen – wie meine Anforderungen an das Telefonbuch – wird die KI wahrscheinlich nicht mehr als ein vages Musterexemplar produzieren, dem wichtige Details fehlen und das mangelnde Verständnis für die Zusammenhänge zwischen Konzepten erkennen lässt. Mit anderen Worten: Mittelmäßige Eingabeaufforderungen führen zu mittelmäßigen Ergebnissen, die sich nicht allzu sehr von einer Aufgabe unterscheiden, die ein abgelenkter Schüler ohne KI-Tools telefonisch aufgibt.
Vor zwei Jahrzehnten leitete die google-Suche ein neues Genre studentischer Arbeiten ein, bei dem detaillierte, aber manchmal unangemessene Zitate mit kopiertem und eingefügtem Text aus Wikipedia kombiniert wurden. Große Sprachmodelle wie ChatGPT eignen sich hervorragend für die Umformulierung von Texten, um Passagen zu erstellen, mit denen Vorwürfe wegen Urheberrechtsverletzung oder Plagiats umgangen werden können, aber selbst die besten neuen KIs verstehen das tatsächliche Wissen immer noch in wichtigen Punkten falsch.
Als William Brewer mir den Telefonbuch-Trick beibrachte, gab er mir eine konkrete Fähigkeit, die Sprödigkeit des Wissens von KIs zu testen. Aber er hat mir auch vermittelt, dass es eine gute Idee ist, an den losen Fäden der KI herumzurupfen. Und, noch grundlegender, dass das Ziel des Lernens darin besteht, reichhaltiges, belastbares und vernetztes Wissen zu entwickeln, das der Kritik standhält. Es ist dieses Zusammenspiel zwischen Leser und Autor, das das Verständnis verfeinert.
Es ist wichtig, sich nicht zu der Annahme verleiten zu lassen, dass neue KI-Modelle über ein tiefes Verständnis verfügen. Aber es ist genauso töricht, den Wert der Interaktion mit etwas zu ignorieren, dessen Verständnis oberflächlich ist. Bei richtiger Anwendung bieten KI-Tools den Schülern die Möglichkeit, Argumentation und Kritik zu üben. Sie können ein verlässlicher Resonanzboden für die Besprechung neuer Konzepte sein. Es wäre die größte Ironie, große Sprachmodelle zu verbieten, weil sie zu flexibel sind, wenn wir den Schülern doch genau das vermitteln wollen.