Studentenforschungsprojekt fordert BU und andere Schulen dazu auf, KI-Richtlinien einzuführen
Akademiker
Studentenforschungsprojekt fordert BU und andere Schulen dazu auf, KI-Richtlinien einzuführen
Um ihren Vater, den langjährigen BU-Manager Joseph Mercurio (inzwischen im Ruhestand), an seinem 75. Geburtstag im letzten Jahr zu feiern, hat Andrea Mercurio seine Biografie in chatgpt eingegeben, um ein paar Toasts zu generieren. Sie ist Dozentin für Psychologie und Gehirnwissenschaften am College of Arts & Sciences und erinnert sich an die Ergebnisse.
„Einer von ihnen sagte so etwas wie: ‚Joe, mit seinem ansteckenden Lachen und seinem ruhigen Auftreten.‘ Der ganze Raum ist voller BU-Leute, die meinen Vater seit Jahren kennen, und sie brechen in Gelächter aus.“ ChatGPT, das vermeintliche Wunderkind der künstlichen Intelligenz, „sprach auch über seine ‚begeisterten kulinarischen Talente in der Küche‘.“ Ich meine, das tut er nicht kochen und alles zubereiten. Immer.“
Also ist niemand perfekt. Aber „ChatGPT“ macht weiter ichsich selbst verbessern„, sagt Mercurio (CAS'00), so dass drei Viertel der 38 BU-Studenten, die in einer kürzlich abgeschlossenen Studie ihres Studenten Dima Ghalili (CAS'24) befragt wurden, das Tool für Schularbeiten verwendeten – und in einigen wenigen Fällen auch zum Betrügen .
Ghalili führte das Projekt unter der Schirmherrschaft des Undergraduate Research Opportunities Program (UROP) der BU durch, das von Fakultäten betreute Studentenbefragungen fördert. Die befragten Studenten nutzten andere KI-Plattformen, von Grammatik bis hin zu Übersetzungssoftware. Aber ChatGPT war am beliebtesten: 75 Prozent der Befragten gaben an, dass sie es für akademische Zwecke nutzen, am häufigsten „zum Verstehen von Artikeln/Passagen (35 Prozent), zum Überprüfen der Grammatik/Satzstruktur (32 Prozent) und zum Debuggen von Code (29 Prozent).“ und um Ideen für die akademische Arbeit zu generieren (29 Prozent)“, schrieb Ghalili in seinem UROP-Bericht.
Dennoch stellte er fest, dass die akademischen Einheiten der BU mit Ausnahme der Fakultät für Informatik und Datenwissenschaften noch keine endgültigen KI-Richtlinien festgelegt haben. Zu den Anforderungen des CDS gehört, dass Studierende „KI-Tools bei jedem Einsatz Anerkennung zollen müssen, und sei es nur, um Ideen zu generieren und nicht um brauchbare Texte oder Illustrationen.“ (Bei der Zulassung gibt es auch eine Richtlinie, die die College-Aufsätze von Bewerbern regelt.) In der Zwischenzeit wird erwartet, dass eine KI-Arbeitsgruppe der Universität bald über empfohlene Best Practices und Leitplanken für die Technologie in Bildung und Forschung berichten wird.
Darüber hinaus sagt Mercurio, der im CAS-Ausschuss für akademisches Fehlverhalten sitzt, dass in den Lehrplänen von Professoren die Studenten in der Regel darauf hingewiesen werden, dass die Unterrichtsarbeit ihre eigene, unabhängige Arbeit sein muss – weder die von jemand anderem noch von KI.
Die meisten von Ghalili befragten Studenten sehnen sich nach Anleitung zum verantwortungsvollen Umgang mit ChatGPT, schrieb er und fügte hinzu, dass Pädagogen „sich den Herausforderungen stellen müssen, die durch neue, hochentwickelte Technologien entstehen, die neue Möglichkeiten für akademisches Fehlverhalten bieten.“
Kenneth Lutchen, Interims-Provost und Chief Academic Officer, sagt, sobald der Bericht der Task Force eingereicht ist: „Wir werden die Ergebnisse und Empfehlungen gründlich prüfen, bevor wir entscheiden, ob eine hochrangige, universitätsweite Richtlinie sinnvoll ist.“ Ohne der Arbeit der Task Force zu weit voraus zu sein, vermute ich, dass wir uns bei einer Reihe von Praktiken in eine koordinierte Richtung bewegen – zum Beispiel bei der Anforderung der Namensnennung, wenn die Ausgabe von ChatGPT abgeleitet wird, und anderen Themen.
„Die Universitätsgemeinschaft, ihr Feedback und ihre Ideen waren für diesen Prozess von entscheidender Bedeutung und wir freuen uns darauf, in Kürze darüber zu berichten, was unserer Meinung nach sinnvolle Wege für den Einsatz dieser Technologie an der BU sein werden.“
Ghalili fasste seine UROP-Umfrage unter Studenten zusammen und schrieb: „8 Prozent gaben zu, über ChatGPT Texte generiert zu haben, die ohne entsprechende Quellenangabe wörtlich in die akademische Arbeit eingearbeitet wurden.“ Unterdessen „berichteten 36 Prozent über eine nicht genehmigte Zusammenarbeit bei einer Prüfung oder Aufgabe durch Interaktion mit Kollegen und/oder Online-Quellen.“
Unter allen Formen des Betrugs, die Ghalili untersuchte, „gab ein kleiner Teil der Stichprobe an, dass sie diese Verhaltensweisen entweder nicht als Formen akademischen Fehlverhaltens ansahen (zwischen 8 und 17 Prozent, je nach spezifiziertem Verhalten) oder dass sie es waren.“ unsicher (zwischen 8 und 21 Prozent).“
Andere Ermittler haben die Popularität der Plattform bestätigt. Letztes Jahr ein anonymer BU-Student sagte WBZBostons CBS-Tochtergesellschaft: „Ich habe ChatGPT für die meisten meiner Aufgaben verwendet und es funktioniert wirklich gut.“
„Man hat Ihnen diese ganze neue Technologie gegeben [as a student], aber nicht unbedingt die dazugehörige Anleitung“, sagte Ghalili in einem Interview. „Ein neues Werkzeug kann für etwas Großartiges genutzt werden, es kann aber auch missbraucht werden.“
Ein neues Werkzeug kann für etwas Großartiges genutzt werden, es kann aber auch missbraucht werden.
Mercurio kennt diesen Missbrauch aus ihrer Arbeit im Ausschuss für Fehlverhalten. Ihre letzten vier oder fünf Fälle „waren alle mit ChatGPT verbunden“, stellt sie fest. In diesen Fällen entdeckten Professoren, dass „Studenten ChatGPT nutzten, um Code für ihre Hausaufgaben zu schreiben oder eine Arbeit zu schreiben“, sagt sie. Ein BU-Professor entdeckte Betrug nur, weil die Studenten Entwürfe in ein google-Dokument schreiben mussten, das frühere Versionen eines Textes zeigt. Der Professor sah, dass die frühere Version des Studenten gelöscht und durch eine kopierte und eingefügte, vollständige Antwort ersetzt worden war, „und sie stimmte nicht mit der Arbeit überein, die er zuvor geleistet hatte.“
Eine solche Detektivarbeit der Fakultät sei notwendig, sagen Mercurio und Ghalili, weil Software zur Erkennung des KI-Einsatzes oft unzuverlässig sei. Die Arbeit von ChatGPT kann sich als KI-generiert herausstellen – zum Beispiel durch das Schreiben unangemessen blumiger Prosa, sagt Mercurio, aber dass eine solche Sprache in Schreibkursen bestehen könnte, sagt sie.
„Ich denke, wir müssen umdenken [student] Beurteilungen“, fügt sie hinzu. „Die Art und Weise, wie wir Menschen bewerten oder bewerten, muss sich ändern.“ Sie und Ghalili sagen, dass Optionen mehr mündliche Prüfungen und beaufsichtigte Prüfungen im Unterricht umfassen würden.
Die Entwicklung der Lichtgeschwindigkeit von ChatGPT hat andere in der Akademie in Erstaunen versetzt: die Washington Post berichtet, dass ein KI-Experte der University of Mississippi Fakultätssitzungen zu diesem Thema mit den Worten beginnt: „Erinnern Sie sich, was ich Ihnen letzte Woche gesagt habe? Vergiss es.“
Das UROP-Forschungsprojekt entstand aus Mercurios Interesse an möglicher Voreingenommenheit bei akademischem Fehlverhalten und der Frage, ob internationale Studierende eher verdächtigt und dafür für schuldig befunden werden. Sie diskutierte das Thema mit Ghalili, einer Schülerin einer ihrer Klassen, die in China aufgewachsen ist. „Als ChatGPT an Bedeutung gewann“, sagt sie, „ sahen wir darin eine Gelegenheit, mehr über die möglichen Möglichkeiten zu erfahren, wie neue Technologien in der akademischen Arbeit missbraucht werden könnten.“
Angesichts der beschleunigten Entwicklung der Technologie und der geringen Stichprobengröße des UROP-Projekts plant Mercurio eine größere Studie und hofft auf bis zu 400 Befragte von BU und anderen Hochschulen und Universitäten.
Entdecken Sie verwandte Themen: