Die University of Minnesota hat nach der Veröffentlichung des KI-Chatbots im November 2022 chatgpt und die Art und Weise, wie Studenten es zum Betrügen nutzen, zur Kenntnis genommen.
ChatGPT, ein Chatbot mit künstlicher Intelligenz (KI), der aus Eingabeaufforderungen menschenähnlichen Text erzeugen kann, löste Diskussionen an Universitäten im ganzen Land aus. Einige hervorgehoben sein Potenzial, das Lernen zu ergänzenwährend andere Bedenken hinsichtlich seiner Verwendung zum Betrügen äußerten.
Da sich die Universität mit Best Practices rund um ChatGPT auseinandergesetzt hat, haben die mit der Disziplinierung von Studierenden beauftragten Stellen einen Anstieg der Fälle akademischer Unehrlichkeit im Zusammenhang mit der neuen Technologie festgestellt.
Rektorin Rachel Croson sagte in einer Campus-weiten E-Mail vom 27. April: „Die unbefugte Nutzung von Online-Lernunterstützungs- und Testplattformen gilt als Verstoß gegen die akademische Integrität und unterliegt den gleichen Sanktionen, die sich aus anderen Formen schulischer Unehrlichkeit ergeben würden.“
In der Nachricht wurden die Studierenden aufgefordert, mit ihren Professoren über den Einsatz von KI-Tools zu sprechen, sofern diese nicht bereits geklärt hätten, was in ihrer Klasse erlaubt sei.
Aus den Aufzeichnungen der Universität ging hervor, dass der Twin Cities-Campus der Universität während des akademischen Jahres, in dem ChatGPT auf den Markt kam, keine Daten erfasste, die sich speziell auf den Einsatz von KI bezogen, sondern nur umfassendere Daten zur akademischen Disziplin.
Sharon Dzik, Direktorin des Office for Community Standards, sagte, im vergangenen akademischen Jahr seien alle Fälle von Online-Betrug zusammengefasst worden, einschließlich KI-Tools und Online-Nachhilfe-Websites, auf denen Studenten Testantworten finden können, wie etwa Chegg und Course Hero.
Obwohl noch Fälle aus dem Frühjahrssemester bearbeitet werden, machte Online-Betrug im Studienjahr 2022/23 etwas mehr als 20 % aller Fälle von akademischer Unehrlichkeit aus, so das Office of Community Standards.
Als immer mehr ChatGPT-Fälle eintrafen, sagte Dzik, ihr Büro habe die Notwendigkeit einer neuen Kategorie zur Verfolgung KI-spezifischer Fälle erkannt. Ab dem 1. Juli werden Fälle von akademischer Unehrlichkeit im Zusammenhang mit KI getrennt von anderem Online-Betrug verfolgt.
Allerdings hat die University of Minnesota – Duluth im vergangenen akademischen Jahr spezifische Daten zu Beschwerden über akademische Unehrlichkeit im Zusammenhang mit KI aufbewahrt. Bis zum 6. Juni gab es elf Beschwerden, von denen laut Universitätsakten in sechs Fällen Disziplinarmaßnahmen gegen die beteiligten Studenten drohten.
Laut Chris Kaberline, Direktor des Office of Student Conduct and Conflict Resolution in Duluth, drohten vier der verbleibenden Fälle mit Disziplinarmaßnahmen, bei einem standen noch weitere Untersuchungen an.
Kaberline sagte, dass sie erst im März mehr Fälle im Zusammenhang mit der mutmaßlichen Nutzung von ChatGPT gesehen habe.
„Es eskaliert einfach“, sagte Kaberline. „Ich denke, dass viele der Vorfälle, die ich von Lehrkräften erhalte, mit ChatGPT oder einem KI-Missbrauch zu tun haben.“
Aus den Aufzeichnungen der Universität ging hervor, dass an den Standorten Rochester, Morris und Crookston keine Beschwerden gemeldet wurden.
Navigieren in ChatGPT im Klassenzimmer
Dzik sagte, Fälle von akademischer Unehrlichkeit mit ChatGPT seien für Professoren oft nicht schwer nachzuweisen, dank Tools wie ZeroGPT, das KI-Schreiben erkennen kann.
„Sie bekommen eine Arbeit und die Arbeit wird für sie lustig aussehen“, sagte Dzik. „Sie werden sagen: ‚Das sieht nicht nach etwas aus, das dieser bestimmte Student auf der Grundlage seiner früheren Arbeiten oder der Art und Weise, wie es geschrieben ist, geschrieben hätte.‘“
Dzik sagte, sie sehe normalerweise „ziemlich eindeutige Fälle“. Wenn ein Lehrer die Verwendung von Online-Ressourcen bei der Arbeit von Schülern verbietet und Beweise dafür vorlegt, dass ein Schüler KI verwendet hat, ist es nicht schwer, einen Schüler zur Rechenschaft zu ziehen.
Während des Frühjahrssemesters hat das Center for Educational Innovation (CEI) der Universität einen Leitfaden erstellt, der Kontext und Überlegungen zum Thema KI liefert, beispielsweise wie man KI-Schreiben erkennt und wie man die Technologie im Klassenzimmer nutzt.
Ilene Alexander, Lehrberaterin bei CEI, sagte, der Leitfaden sei für Dozenten, Lehrkräfte, Lehrassistenten und „jeden, der an der Universität Aufgaben sammelt“ erstellt worden.
Alexander sagte, CEI sei von Lehrkräften und Lehrkräften angesprochen worden, die sich für alles interessiert hätten, von der Frage, wie der Einsatz von KI in ihrem Lehrplan verboten werden könne, bis hin zur Frage, wie die Technologie zur Unterstützung von Schülern mit Lernschwierigkeiten eingesetzt werden könne.
Sie fügte hinzu, dass sie sogar von einem Fakultätsmitglied angesprochen wurde, der lernen wollte, wie man ChatGPT für die eigene Produktivität nutzt, beispielsweise um Präsentationen effizienter zu gestalten.
„Sie tun das, weil sie praktische Erfahrungen bei der Anleitung ihrer eigenen Schüler sammeln möchten“, sagte Alexander.
Alexander sagte, dass die Anfragen, die CEI von der Fakultät erhalten habe, zwar für jede Disziplin etwas unterschiedlich seien, es aber einige Gemeinsamkeiten gegeben habe. Verfügbare Ressourcen, wie man den Schülern Anleitung und Unterstützung bietet und wie man sicherstellt, dass die Schüler ihre eigene Arbeit erledigen, ohne sich auf Plagiatsprüfer verlassen zu müssen, sind alles Anfragen, die CEI für das nächste Schuljahr erhalten hat.
„Ich denke, das gemeinsame Thema für das kommende Jahr lautet: „Wie mache ich diese Arbeit, ohne übermäßig hart und vorschreibend zu sein und sie ganz auszuschließen?“, sagte Alexander.