„Vergleichen Sie diese beiden Meinungsbeiträge und schreiben Sie einen kurzen argumentativen Aufsatz, in dem die wichtigsten Unterschiede erläutert werden.“ Es ist eine Aufgabe, die Gea Dreschler, Schreiblehrerin und Leiterin des Akademischen Sprachprogramms, seit Jahren an Studierende stellt. Mittlerweile weiß sie ungefähr, welche Antworten sie erwartet. Es gibt immer wieder Studierende, die ihrem Kopf freien Lauf lassen und sich dadurch etwas Besonderes einfallen lassen.
Doch im vergangenen Jahr waren die von einem erheblichen Teil ihrer Studierenden eingereichten Texte plötzlich anders. Sie waren inhaltlich und strukturell ähnlich und die Argumente waren angemessen, aber nicht sehr spannend.
Erst dann wurde Dreschler klar, dass sie einen Fehler gemacht hatte, vor dem sie andere Lehrer immer warnt, wenn sie ihnen Ratschläge zum Umgang mit Programmen wie chatgpt gibt. Es war zu einfach, diese Aufgabe mit ChatGPT zu erledigen, und bevor die Schüler damit begannen, hatte Dreschler ihnen nicht gut genug erklärt, warum diese Aufgabe für sie besonders wichtig ist. Dreschler: „Als Lehrer befand ich mich in einer Situation, in der ich nicht wusste, wer ChatGPT verwendet hatte und wer nicht. Dies könnte dazu führen, dass Studierende, die selbst Zeit und Energie in ihre Aufgabe investiert haben, schlechtere Noten bekommen als diejenigen, die sie am Computer erledigen ließen.“
Tolle Hilfe, wenn Sie nicht weiterkommen
Dass die Einführung von Computerprogrammen, die selbst Texte erzeugen können, die universitäre Ausbildung völlig verändert, darüber sind sich Lehrende, Studierende und Experten einig. ChatGPT gibt es mittlerweile seit über einem Jahr und 180 Millionen Nutzer weltweit, darunter die Mehrheit der Studenten, haben das Programm genutzt.
Tipps und Tricks für Lehrer
>Die Haltung der VU Amsterdam zu ChatGPT und anderen generativen KI-Programmen ist Nein, es sei denn: Ihre Verwendung für Lernaufgaben ist nicht gestattet, es sei denn, der Lehrer entscheidet anders. >Aber seine Verwendung kann nicht überprüft werden, gibt auch die VU Amsterdam an. >Deshalb ist es als Lehrer am besten, eine schriftliche Aufgabe in kleine Schritte aufzuteilen und die Schüler anhand dieser Schritte und nicht nur anhand des Endergebnisses zu bewerten. >Oder Sie stellen Aufgaben so konkret, dass sie nicht mit einem Chatbot gelöst werden können. >Wenn Sie den Chatbot doch nutzen möchten, können Sie das Programm Ideen generieren lassen oder Studierende einen von ChatGPT erstellten Text bewerten lassen. >Das VU Education Lab bietet Workshops zu ChatGPT für Lehrer an.
Die KI-Studenten Lars Woudstra und Kelly Spaans verwenden ChatGPT beispielsweise, um Teile des Programmiercodes oder Teile von Berichten zu schreiben. Woudstra: „Ich weiß oft intuitiv, welchen Algorithmus ich für ein Problem verwenden möchte, aber manchmal schaffe ich es nicht zu erklären, warum.“ ChatGPT ist dabei wirklich praktisch.“ Dennoch können sich die Studierenden noch nicht vorstellen, dass der Chatbot eine ganze Hausarbeit für sie schreibt. Spaans: „Es sind immer Teilaufgaben, kleine Text- oder Codefragmente. Es ist eine große Hilfe, wenn man einmal nicht weiterkommt.“
„Recherchieren Sie als Lehrer selbst, was der Chatbot aus Ihren Aufgaben macht.“
Im Auftrag des Centre for Teaching & Learning unterrichten Spaans und Woudstra ChatGPT-Workshops für Lehrer der VU Amsterdam. Ihr wichtigster Tipp: Recherchieren Sie als Lehrer selbst, was der Chatbot aus Ihren Aufgaben macht. „Sie werden wahrscheinlich feststellen, dass es ziemlich viel Aufwand erfordert, eine gute Ausgabe zu erzielen“, sagt Spaans. Manchmal gibt es Lehrer in ihren Workshops, die den Einsatz generativer KI strikt ablehnen, „aber Programme wie ChatGPT führen nicht weiter, sodass sich Lehrer anpassen müssen“, sagt Spaans. Aus diesem Grund halten die Studierenden die Richtlinie der VU Amsterdam zur generativen KI für unhaltbar, und die wenigen verfügbaren Daten zeigen, dass sie Recht haben.
Unmöglich zu beweisen
In einer Umfrage unter etwa tausend amerikanischen Studenten gaben 89 Prozent von ihnen an, dass sie ChatGPT nutzen. Eine kleine Kostprobe von Erasmus-Magazin ergibt ungefähr den gleichen Wert: 92 Prozent der Rotterdamer Studierenden nutzen diesen Chatbot auf die eine oder andere Weise. VU Amsterdam hat hierzu noch keine Zahlen, aber es gibt kaum Grund zu der Annahme, dass sie hier anders ausfallen würden.
Genau wie Spaans und Woudstra lassen die meisten Studenten in Rotterdam das Programm nicht ganze Aufsätze schreiben, sondern nutzen es, um Ideen oder kleinere Textteile zu generieren, die sie bearbeiten und zu einem Aufsatz verarbeiten. Es ist eine Grauzone. Das Kopieren von Texten aus dem Internet und die Weitergabe als eigene Texte ist nicht gestattet und wird von Plagiatsscannern erkannt. Doch schon vor der Einführung von ChatGPT passten die schlaueren Studierenden offenbar ihre kopierten Texte so an, dass sie nicht mehr erkannt wurden.
Mit ChatGPT ist eine Anpassung nicht mehr nötig, denn das Programm erstellt Nachrichtentexte, die ein Plagiatsscanner nicht erkennt. Selbst wenn ein Lehrer den Verdacht hat, dass ChatGPT der wahre Autor eines Artikels ist, kann er dies nicht bestätigen. „Im juristischen Sinne ist alles nicht schlüssig“, sagt Jan Struiksma, emeritierter Professor für Verwaltungsrecht und Mitglied des Prüfungsausschusses der juristischen Fakultät.
In letzterer Funktion war Struiksma im vergangenen Jahr mehrmals mit Lehrern konfrontiert, die vermuteten, dass ein Text von ChatGPT erstellt worden sei, aber „wir haben diese Fälle nicht weiterverfolgt, weil man nichts beweisen kann“, sagt er.
Lernziele neu denken
Struiksma beschäftigt sich seit Jahren mit KI und hat kürzlich die fortschrittlichste (kostenpflichtige) Version von ChatGPT ausprobiert, die das Hochladen von Literatur und Datendateien sowie die Bereitstellung sehr spezifischer Eingabeaufforderungen ermöglicht. Er ließ den Chatbot die Prüfungsfragen und Seminarfragen für den Rechtstheoriekurs beantworten und dieser erreichte eine 95-Prozent-Punktzahl. Dies hätte eine Note von 9 bzw. 9,5 von zehn Punkten ergeben. „Bald werden gute Anregungen einfach an die Studierenden verkauft“, erwartet Struiksma, „ich habe wenig Hoffnung für die akademische Ausbildung, wie sie derzeit aufgebaut ist.“
Während Dreschler feststellte, dass die Aufsätze von ChatGPT etwas langweilig und formell waren, fand Struiksma die Ausgabe der Aufgaben, die er dem Chatbot gab, eher gut geschrieben. „Seit Jahren irritieren uns die Schreibfähigkeiten der Studierenden. Es erfordert viel Aufwand und Personal, diese den Schülern beizubringen, was in naher Zukunft vielleicht nicht mehr nötig sein wird.“
„Die Rolle des Schreibens wird sich verändern“
Doch was nützt eine akademische Ausbildung, wenn der Computer bald Thesen und Artikel schreiben kann, die von menschlichen Texten nicht zu unterscheiden sind?
In jedem Fall wird die Einführung von ChatGPT die Rolle des Schreibens in der Bildung grundlegend verändern. Geschriebene Texte spielen derzeit an Universitäten eine herausragende Rolle. Sie werden häufig verwendet, um zu testen, ob ein Schüler den Stoff verstanden hat und ob er die relevanten Informationen aus Ressourcen extrahieren und selbst eine begründete Argumentation verfassen kann.
„Vielleicht lassen wir die Studierenden sowieso zu viel schreiben“, vermutet Dreschler. „ChatGPT zwingt uns Lehrer dazu, neu zu bewerten, was die Schüler eigentlich lernen sollen und ob eine schriftliche Hausarbeit dafür das am besten geeignete Mittel ist.“
Das Erklären ist besser
Nachdem Dreschlers Aufgabe, zwei Meinungsbeiträge zu vergleichen, von einigen Studenten mithilfe von ChatGPT abgeschlossen worden war, sprach sie mit ihnen. Die Schüler sagten ihr, dass sie zu beschäftigt seien, dass sie zu viele schriftliche Aufgaben bekämen, dass sie die Aufgabe langweilig fanden und ihren Sinn nicht erkannten. Dreschler wiederum erklärte, warum sie den Auftrag für wichtig halte. „Das war ein gutes Gespräch, das beiden Seiten weitergebracht hat“, sagt Dreschler.
Auch die Bildung sollte der digitalen Kompetenz mehr Aufmerksamkeit schenken, sagt Esther Schagen, Lehrerin für Kommunikationswissenschaften und Mitglied der VU Amsterdam-Arbeitsgruppe zu KI in der Bildung: „Bei weitem nicht alle Schüler wissen, woher die Informationen im Internet kommen, ob es eine gibt Voreingenommenheit, ob bei der Art und Weise, wie sie den Auftrag ausgeführt haben, ethische oder ökologische Bedenken bestehen. Sie wissen beispielsweise nicht, dass das Erstellen eines Bildes in Dal-E genauso viel Energie verbraucht wie das Aufladen Ihres Telefons. Und dass Suchanfragen in ChatGPT mehr Energie kosten, als etwas zu googeln. Auch das sind Aspekte, mit denen wir uns befassen müssen.“
Wechsel des Berufsfeldes
Sowohl Dreschler als auch Esther Schagen sind der Meinung, dass es wichtiger denn je ist, besser zu erklären, warum man als Lehrer etwas für wichtig hält. Vielleicht werde man nach dem Abschluss nicht mehr beruflich Texte schreiben müssen, aber die Teilkompetenzen, die man beim Verfassen eines Textes brauche, brauche man in fast jedem Beruf, meint Schagen.
„Ein Text, etwa ein Aufsatz oder eine Arbeit, ist ein Endprodukt“, stimmt Dreschler zu. „Dem ging ein Prozess voraus: Sich über das Thema informieren, relevante Literatur identifizieren, eine sinnvolle Frage formulieren, eine Auswahl des Gelesenen treffen und dies in klarer Form formulieren. Sie können Studierende anhand all dieser Teilschritte beurteilen. Und es ist leicht zu erklären, warum diese Fähigkeiten wichtig sind.“
Struiksma ist sich da nicht so sicher: „KI wird das Berufsfeld stark verändern und wir wissen nicht wie.“ Es ist schwierig, dies vorherzusehen. Vielleicht steuern wir auf eine Situation zu, in der wir die Unterscheidungsfähigkeit und das akademische Wissen der Studierenden testen, indem wir sehen, ob sie KI-generierte Texte auf ihre Vorzüge hin richtig bewerten können. Denn um die Qualität eines solchen Textes gut einschätzen zu können, braucht man zwar noch einiges an Fachwissen, aber so oder so wird die Ausbildung nicht so bleiben, wie sie ist.“