Es ist in Mode, über Krisen im Bildungswesen zu sprechen – und das gilt umso mehr für die Alphabetisierung. Bücher und Artikel mit dem Titel „Warum Johnny nicht schreiben kann“ gibt es seit den 1970er Jahren in großer Zahl, und Lehrer, Universitätsdozenten und die breite Öffentlichkeit behaupten häufig, dass die heutigen Schüler schlechter schreiben, lesen oder allgemein kommunizieren können als früher .

Als erfahrener Dozent für akademisches Schreiben habe ich nicht viel Geduld mit dieser Rhetorik. Seit der Einführung der Stelle „Schreiblehrer“ beschweren sich Menschen in meiner Branche über das Schreiben von Schülern. Um ein Beispiel zu nennen: Adams Hill beklagte die „schlechte Rechtschreibung, die verwirrende Zeichensetzung, die ungrammatischen, obskuren, mehrdeutigen oder uneleganten Ausdrücke“ seiner Schüler. Und dieser Typ leitete ein Schreibprogramm in Harvard. In den 1870er Jahren.

Diese Anzeige wurde noch nicht geladen, aber Ihr Artikel wird unten fortgesetzt.

Unsere neueste Krise ist chatgpt und ähnlich große Sprachmodelle. Manche betrachten diese Programme als einen unvermeidlichen Schritt auf dem Weg zur Technologisierung und Automatisierung aller Arbeiten, von denen wir früher dachten, dass sie nur Menschen erledigen könnten. Wenn Roboter das können, lohnt es sich vielleicht nicht, Studienanfänger dazu zu bringen, 500 Wörter beispielsweise über die Anwendung politischer Theorie auf die russische Invasion in der Ukraine oder die molekulare Zusammensetzung der durch Waldbrände erzeugten Feinstaubpartikel zu schreiben .

Ich bin mit dieser Perspektive einverstanden. Ich weise alltägliche Dinge wie Zusammenfassungen kurzer Artikel zu, die GPT offenbar präzise erstellen kann. Ich kann mir vorstellen, dass ein Student solche Aufgaben ablehnt, stattdessen wissenschaftliche Quellen in einen KI-Chatbot einspeist und die Zusammenfassungen liest, um sein Fachwissen zu vertiefen.

Siehe auch  Es werden ungewöhnliche „smarte“ Kopfhörer vorgestellt. Sie können ein Smartphone ersetzen und mit ChatGPT chatten

Die eigentliche Krise besteht jedoch darin, dass wir uns bereits geschlagen gegeben haben, wenn wir sagen, dass ChatGPT überhaupt „schreiben“ kann. Professoren und Experten haben Computerprogrammen, die gut in der Lage sind, statistisch wahrscheinliche Buchstabenfolgen vorherzusagen, viel zu viel Platz eingeräumt.

Dies scheint darauf zurückzuführen zu sein, dass wir den Glauben an die Verständlichkeit der menschlichen Bedeutung selbst verlieren. Stattdessen übernehmen wir nihilistisch den technofatalistischen Glauben an eine unvermeidliche Zukunft, in der Computer alle Schriften, Kunstwerke und anderen Produkte mit symbolischer Bedeutung produzieren.

Diese Anzeige wurde noch nicht geladen, aber Ihr Artikel wird unten fortgesetzt.

Wir sollten alles tun, was unseren Studenten dabei hilft, einen Job zu finden, indem wir Eingabeaufforderungen in GPT-75 eingeben oder was auch immer, oder?

Falsch. Ein kürzlich von der UNESCO veröffentlichtes Flussdiagramm fasst das Problem prägnant zusammen. Die erste Frage lautet: „Spielt es eine Rolle, ob die Ausgabe wahr ist?“ Wenn „Nein“, dann ist die Verwendung von ChatGPGT sicher.“ Wie Professor Nigel Harwood von der University of Delaware auf Twitter schrieb: „Wir können genau dort aufhören.“ Die Tatsache, dass ChatGPT und ähnliche Produkte regelmäßig Sätze ausspucken, die in keiner Weise korrekt sind, sollte uns zu denken geben.

Es ist nicht so, dass es schlecht wäre, Technologie zur Verbesserung des Schreibens einzusetzen. Wir machen das fast alle mit einer Art Rechtschreibprüfungsprogramm. Es ist so, dass Schreiben im Kern Sinn bedeutet: sich mit Ideen auseinandersetzen und unsere einzigartigen gelebten Erfahrungen in die Welt einfließen lassen. Schreiben ist eine menschliche Begegnung mit dem Anderssein, eine Begegnung von Geistern.

Siehe auch  In Brest ein runder Tisch, um alles über ChatGPT in der Schule zu erfahren

KI-Journalismus ist nicht nur fehleranfällig, ihm fehlt auch die Berührung von jemandem, der einem Interviewpartner in die Augen geschaut hat oder an Tränengas erstickt ist. KI-Geschäftsplänen fehlt das Erfahrungswissen darüber, was es bedeutet, ein gescheitertes Startup zu schließen, aber sie haben den Mut, es noch einmal zu versuchen. Und selbst beim akademischen „Schreiben“, das durch KI generiert wird, fehlt der Prozess, sich seinen eigenen Platz in der größeren akademischen Disziplin und sogar in der Welt zu sichern.

Diese Anzeige wurde noch nicht geladen, aber Ihr Artikel wird unten fortgesetzt.

Zu sagen, dass KI „schreiben kann“, weil sie grammatikalische Sätze produzieren kann, ist so, als würde man sagen, ein Boot könne schwimmen oder eine Gitarre singen. Es macht keinen Sinn zu behaupten, dass diese Dinge geschehen, außer im metaphorischen Sinne.

Joan Didion schrieb berühmt: „Ich schreibe ausschließlich, um herauszufinden, was ich denke, was ich sehe, was ich sehe und was es bedeutet.“ Computerprogramme können Symbole anordnen, aber nicht denken; visuelle Daten verarbeiten, aber nicht sehen; rekapitulieren menschliche Texte, aber nicht gemein.

Durch den Verzicht auf menschliches Handeln bei der Erstellung von Texten ist die Ausgabe von ChatGPT ein dürftiges Abbild dessen, was Schreiben ist oder sein kann. Die Texte, die KI-Modelle produzieren, sind dünne Nachahmungen der dicken und tiefen Bedeutung, die entsteht, wenn wir uns durch das Schreiben in eine Begegnung mit dem Wort und der Welt bringen.

Wenn KI-Sprachmodelle scheinbar im Geschäft mit der Bedeutungsfindung tätig sind, dann nur deshalb, weil wir in der Lage sind, die von ihnen erzeugten Texte zu interpretieren und ihnen Bedeutung zu verleihen. Nur Menschen können meinen.

Siehe auch  Wie ChatGPT Sie zu einem produktiveren Koch machen kann

Wenn wir in der Lage sein wollen, Schreiben zu lehren und schreiben zu können, müssen wir mit dieser Wahrheit beginnen: Schreiben ist nicht etwas, das einem Algorithmus ausgelagert werden kann, sondern es geht darum, sich mit seinem ganzen Selbst, Geist und Körper zu zeigen. und stürzen Sie sich kopfüber in ein riskantes und lohnendes Unterfangen, bei dem Sie es wagen, es ernst zu meinen.

Joel Heng Hartse ist Präsident der Canadian Association for the Study of Discourse and Writing und Dozent an der Fakultät für Bildungswissenschaften der Simon Fraser University. Sein neues Buch, TL;DR: A Very Brief Guide to Reading and Writing in Universität, ist im Buchhandel oder als erhältlich Kostenfreier Download bei www.ubcpress.ca/tldr-download.
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein