Ah, der erste Unterrichtstag. Sie bürsten Ihre Haare, erscheinen pünktlich und suchen sich Ihren Platz für den Rest des Semesters (oder zumindest für die Tage, an denen Sie am Ende anwesend sind) aus. Der Professor greift wie üblich auf die Website des Kurses, das Benotungsschema und ein wenig darüber zu. Während sie den Lehrplan teilen und den Duke Community Standard lesen, fällt Ihnen etwas Neues auf – die Klassenrichtlinien zum Einsatz von KI.
Seit der Einführung von chatgpt vor weniger als anderthalb Jahren versucht das gesamte Schulsystem herauszufinden, wie es sich anpassen kann. Aufsätze können in Sekundenschnelle erstellt, Codierungsprobleme durch Kopieren und Einfügen gelöst und Reflexionen mit minimalem Aufwand erledigt werden. Einige Schulen haben sich dafür entschieden Verbot der Verwendung großer Sprachmodelle (LLMs) Ich mag ChatGPT völlig, während andere Pädagogen dies getan haben habe es angenommen.
Duke hat Professoren Empfehlungen dazu gegeben KI-Richtlinien Aber letztendlich hat es den Lehrern Autonomie gegeben, ihre Klassenregeln festzulegen. Meine Klassen haben beschlossen, die Verwendung von LLMs entweder zu verbieten oder sie zuzulassen, wenn sie zitiert und als Hilfsmittel verwendet werden (in der Regel mit Punktabzug).
Aber erlauben Sie mir, Ihnen ein kleines Geheimnis zu verraten: Unabhängig von den Richtlinien der Professoren zum Einsatz von KI werden einige (wahrscheinlich viele) Studenten ChatGPT verwenden, um ihre Aufgaben zu unterstützen oder vollständig abzuschließen. Das liegt nicht daran, dass die Schüler schummeln wollen, sondern vielmehr daran, dass der Unterricht nicht ihren Lerninteressen dient. Die fehlende Abstimmung der Ziele zwischen Schülern und Dukes Lehrplan führt dazu, dass ChatGPT bei Aufgaben häufig eingesetzt wird.
Um dies zu verstehen, müssen wir zunächst darüber nachdenken, warum Studenten aufs College gehen. Bei Duke mangelt es an Umfragedaten zu dieser Idee, aber durch informelle Interviews habe ich drei Hauptgründe entschlüsselt. Erstens war es der klare nächste Schritt. Zweitens, um einen besseren Job zu bekommen. Und drittens für das soziale Erlebnis. Nur eine kleine Gruppe von Studenten entscheidet sich vor allem aus Liebe zu intellektuellen Entdeckungen für ein Studium.
Das Problem besteht darin, dass die Hochschulen diese kleine Gruppe als Hauptgrund dafür betrachten, dass die Mehrheit der Studierenden ein College besucht. Der Unterricht konzentriert sich also auf die Theorie und hat wenig Bezug zur realen Welt oder zum Leben und den Zielen der Schüler.
Ich kenne viel zu viele Studenten mit einem Notendurchschnitt von 4,0 in Informatik, die keine API erstellen, geschweige denn aufrufen können. Dies ist von grundlegender Bedeutung für die Rolle von Software-Ingenieuren (dem Karriereziel, das die meisten Informatikstudenten anstreben). Stattdessen verbringen die Schüler 40 Stunden in einer einzigen Woche damit, einen einfachen Computer für eine Klasse zu entwerfen – etwas, das für die Rolle, die am meisten angestrebt wird, weniger relevant ist. Es macht also langsam Sinn, dass Studenten schummeln und LLMs nutzen, um ihre Arbeit schneller zu erledigen. Unser Unterricht scheint eine Ablenkung von unseren Zielen zu sein.
Wenn wir die Gruppe der Studenten ignorieren, die das College besuchen, weil es erwartet wurde, was von Natur aus zufrieden ist, tragen unsere Kurse nicht zu unseren beiden anderen Motivatoren bei: mehr Karrieremöglichkeiten und sozialer Erfahrung. Daher nehmen die Schüler ihre Ausbildung selbst in die Hand. Sie nutzen ChatGPT, um mehr Zeit für die Arbeitsvorbereitung und das gesellige Beisammensein zu haben. In der Informatik bedeutet das den Einsatz von KI zur schnellen Erledigung von Aufgaben, um die Arbeit an Leetcode-Interviewfragen, Nebenprojekten oder Zelten in KVille zu ermöglichen. Und wenn LLMs zum Betrügen genutzt werden, bereitet man Studierende tatsächlich auf eine Karriere vor. Eine aktuelle Umfrage fanden heraus, dass 92 % der professionellen Softwareentwickler beim Programmieren generative KI verwenden. Dadurch werden sie tatsächlich auf die Werkzeuge vorbereitet, die sie in der Arbeitswelt einsetzen werden.
Duke wählt ehrgeizige und außergewöhnliche Studenten aus. Wäre es nicht besorgniserregender, wenn die Schüler nicht versuchen würden, ihre Zeit auf ihre Ziele auszurichten?
Ein Student erzählte mir, dass er ChatGPT nutzt, um mehr Beispielaufgaben und Nachhilfe anzubieten, was ihm im Wesentlichen Zugang zu Bürozeiten rund um die Uhr verschafft. Wenn wir den Einsatz von KI verbieten, schaden wir ihm, ohne die Betrüger tatsächlich zu beeinträchtigen. Es gibt eine Million anderer Möglichkeiten zu betrügen. Wenn der Unterricht weiterhin nicht den Wert bietet, den Studierende sich von der Hochschule erhoffen, spielt es keine Rolle, ob KI verboten wird oder nicht. Schüler werden immer einen Weg finden, zu betrügen. Ein Verbot von KI schadet nur den Schülern, die sie zur Unterstützung ihres Lernens im Unterricht nutzen.
Wenn wir wirklich mit dem Schummeln aufhören wollen, könnte Duke den Unterricht besser auf die Ziele der Schüler ausrichten, indem er mehr projektbasierte Kurse anbietet, die Auswirkungen auf die reale Welt betont und die Klassengemeinschaft fördert.
Deshalb fordere ich uns auf, über die Vorstellung hinauszudenken, dass ein Verbot des Einsatzes von KI dem Betrug ein Ende bereiten wird. Lassen Sie uns lieber die Grundursache angehen Warum Schüler nutzen KI zum Betrügen. Das liegt nicht daran, dass sie faul sind, sondern vielmehr daran, dass sie sich dafür entscheiden, ihre Studienerfahrung in die eigene Hand zu nehmen und aus dem College den Wert zu ziehen, den sie sich wünschen.
Aaron Price ist Absolvent der Trinity University. Seine Kolumne erscheint normalerweise jeden zweiten Dienstag.
Holen Sie sich The Chronicle direkt in Ihren Posteingang
Melden Sie sich für unseren wöchentlichen Newsletter an. Jederzeit kündbar.