Wir sprechen erneut über das Potenzial von chatgpt zur Unehrlichkeit von Studenten. Ein Bericht in Times Higher Education macht uns auf die Fähigkeit von ChatGPT aufmerksam, auf Bilder zu reagieren, was bedeutet, dass Studenten theoretisch einfach ein Foto einer Prüfungsarbeit mit Bildern oder Diagrammen machen könnten, und ChatGPT wäre in der Lage, die Fragen zu beantworten. Anfang dieses Jahres, a BBC-Geschichte tauchte auf und dokumentierte die Verwendung von ChatGPT durch Studenten der Cardiff University und berichtete, dass der ChatGPT-erweiterte Aufsatz eines Studenten mit einer ersten Note ausgezeichnet wurde – der höchsten Note, die der Student je erhalten hatte.

Hier gibt es noch etwas anderes, auf das es sich zu achten lohnt. Wir reden immer noch davon, ganz offensichtliches Fehlverhalten zu erkennen. Es gibt keine intellektuellen Schwierigkeiten, herauszufinden, was in diesen oder ähnlichen Situationen passiert ist: Ein Schüler hat vorgetäuscht, Arbeiten auszuführen, die er tatsächlich nicht erledigt hat. Die Herausforderung besteht darin, die Unehrlichkeit aufzudecken – aber unsere Definitionen von Unehrlichkeit, Betrug und Fehlverhalten bleiben intakt.

Zumindest bisher. Aber wir können noch nicht wissen, welche Arten von Betrug ChatGPT in Zukunft ermöglichen könnte. Wir können noch nicht wissen, ob wir über eine vollständige Taxonomie des durch ChatGPT erweiterten Unfugs verfügen. Vielleicht bleiben alle unsere Definitionen erhalten, oder vielleicht rumpelt etwas Neues über die Gleise auf uns zu.

Im Moment könnte man sagen, dass jede Handlung wissenschaftlichen Fehlverhaltens einer Art Kontinuum folgt, teilweise weil sie alle für die gleichen Arten der Entdeckung anfällig ist (ein aufmerksamer Dozent, der eine Änderung im Schreibstil bemerkt; Software zur Plagiatserkennung). Entlang dieses Kontinuums fallen die Schüler, die einen chaotischen Notizenstil haben und am Ende nicht mehr in der Lage sind, zwischen ihren eigenen Worten und denen einer Quelle zu unterscheiden; der Student, der sich einen einzelnen Absatz aus einer Internetquelle schnappt und ihn nicht zuordnet; und der Student, der einen Aufsatz in einer Online-Aufsatzmühle kauft.

Siehe auch  ChatGPT Ihren Weg in Paul Mescals Herz – Trinity News

Dies wären alles klare Beispiele dafür, dass Studierende (versehentlich oder absichtlich) die Ideen anderer als ihre eigenen ausgeben. Aber die Verwendung von Text aus ChatGPT ist vielleicht nicht ganz dasselbe – denn ChatGPT ist interaktiv, generativ und kreativ. Eine Internetquelle existiert vor und außerhalb der Entscheidung, sie zu stehlen, und bleibt durch den Akt des Diebstahls unverändert. Aber ChatGPT erzeugt Text nur als Reaktion auf eine Aufforderung; man muss damit interagieren.

Bisher könnten wir annehmen, dass sich der von ChatGPT erstellte Text eindeutig auf dem Kontinuum befindet, das ich oben skizziert habe – das heißt, ein Student, der ChatGPT-Text (zum Beispiel) in einen Aufsatz einfügt, würde die Worte oder Ideen eines anderen als seine eigenen ausgeben. Aber die generativen, interaktiven Fähigkeiten von ChatGPT führen uns in eine andere Richtung. Ein großes Sprachmodell (LLM) wie ChatGPT, das als Reaktion auf eine Aufforderung Text produziert, kann uns überraschen – und wir möchten es vielleicht auch.

Aus diesem Grund hat Mike Sharples in ein kürzlich DER Stück, sagt, dass er ChatGPT nutzen will, um sein Denken zu „erweitern“. Er meint, denke ich, dass seine generativen Fähigkeiten ihn dazu veranlassen könnten, Präsentationen oder Aufsätze auf eine Weise zu erstellen, die er vorher nicht getan hätte. Er möchte überrascht sein: Die Eingabeaufforderung, die Sie ChatGPT geben, kann immer Text generieren, mit dem Sie nicht gerechnet haben.

Dies bedeutet, dass es schwierig ist, ein LLM zu binden oder einzuschränken. Wir könnten den Studierenden sagen, dass sie es möglicherweise bis zu einem gewissen Grad verwenden oder dass bestimmte eingeschränkte Verwendungen davon in bestimmten Kursen legitim sind – aber die Reaktionen könnten dennoch solche Grenzen überschreiten. Es könnte uns immer noch überraschen.

Siehe auch  Das ChatGPT-Experiment eines Harvard-Studenten zeigt bevorstehende Störungen auf

Versuchen wir ein Gedankenexperiment:

Da Tools wie Rechtschreib- und Grammatikprüfungen legitim sind, entscheiden wir, dass wir Schülern die Verwendung von ChatGPT ermöglichen können, um noch einen Schritt weiter zu gehen und die oberflächlichen Funktionen eines Textes zu verbessern. Ein Schüler könnte dann ChatGPT auffordern, die Kohärenz eines Textes zu überprüfen oder sicherzustellen, dass Absätze Themensätze enthalten.

Hier könnte der Schüler überrascht sein.

Die daraus resultierende Neuordnung des Textes führt dazu, dass sich darin ein neuer Gedanke oder eine neue Argumentationslinie herauskristallisiert. Wenn wir akzeptieren, dass Denken und Sprache zusammenhängen (und ich denke, das müssen wir tun), dann ist dies eine Möglichkeit mit einem entsprechend ausgefeilten LLM. Dieser Schüler könnte nun auf den ChatGPT-Text reagieren, als ob er selbst dazu aufgefordert würde, und den Text weiter verfeinern. Und dann könnten sie ChatGPT noch einmal einbeziehen, einen neuen Text erstellen und so weiter. Wir sprechen jetzt über einen Schüler und eine Maschine, die gemeinsam schreiben und aufeinander reagieren und so einen komplexen, mehrsträngigen Text erstellen, der aus der Arbeit von Schüler und Maschine geflochten ist.

Dies wäre etwas anderes, als von ChatGPT geschriebene „Textblöcke“ zu einem Aufsatz zusammenzufügen.

Es könnte durchaus ein Fehlverhalten sein – aber ich glaube nicht, dass es in das Kontinuum des Fehlverhaltens fällt, das ich oben beschrieben habe. Es sind die generativen Fähigkeiten von LLMs, ihre Fähigkeit, uns zu überraschen, die eine solche Zusammenarbeit mit ChatGPT ermöglichen würden. Wir müssen sorgfältig darüber nachdenken, wie Fehlverhalten definiert wird, wenn eine solche Zusammenarbeit – die durchaus ein authentischer, sinnvoller Lernprozess sein kann – möglich ist.

Ich glaube nicht, dass wir noch nicht an einem Punkt sind, an dem dieses Gedankenexperiment Wirklichkeit werden kann. Aber letztes Jahr um diese Zeit waren die Probleme, mit denen wir jetzt bei LLMs konfrontiert sind, auch nicht Wirklichkeit geworden.

Siehe auch  Niemand weiß, was die KI übernommen hat, KI-Bilder entfachen Flammen des Krieges, ChatGPT hat jetzt Internetzugang

Wie können wir als Pädagogen also auf diese neuen Umstände reagieren? Ich kann mir mehrere Möglichkeiten vorstellen.

Zum einen müssen wir möglicherweise einige Module schreiben, in denen wir den Schülern sagen, dass sie ChatGPT nach Herzenslust nutzen können – es wird nicht als Fehlverhalten eingestuft, aber sie müssen dokumentieren, was sie tun. Ein solcher Ansatz würde es uns ermöglichen, zu verstehen, was Studierende tatsächlich tun und wie sie LLMs in ihre eigenen Arbeitsgewohnheiten integrieren. Anschließend könnten wir beginnen, unsere Definitionen von Fehlverhalten im Lichte unserer Erkenntnisse zu verfeinern.

In diesem Zusammenhang müssen wir uns möglicherweise auf die Idee vorbereiten, dass die Nutzung von LLMs im Grundstudium oder in den ersten Jahren gefördert werden könnte und dass von den Studierenden erwartet wird, dass sie sich mit zunehmendem Fachwissen weniger darauf verlassen. Wir können davon ausgehen, dass von ChatGPT in Aufgaben erstellter Text entsprechend gekennzeichnet ist. Dies würde einige der Dinge widerspiegeln, die wir über Plagiate wissen, die sinnvollerweise als eine „Stufe“ angesehen werden können, die unreife Wissenschaftler durchlaufen müssen.

Mit anderen Worten: Unsere Ausgangspunkte sollten darin bestehen, zu verstehen, wie Studierende von der Nutzung von LLMs zu verschiedenen Zeitpunkten ihres Studiums profitieren könnten. Von dort aus könnten wir überlegen, welche Verwendungen legitim sind und welche möglicherweise „zu viel“ sind.

Tom Muir ist außerordentlicher Professor für Englisch für akademische Zwecke an der OsloMet – Oslo Metropolitan University, Norwegen.

Wenn Sie Ratschläge und Einblicke von Wissenschaftlern und Universitätsmitarbeitern wünschen, die jede Woche direkt in Ihren Posteingang geliefert werden, Melden Sie sich für den THE Campus-Newsletter an.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein