Der Fokus der Universitäten auf Bewertungsfehlverhalten im Zuge des Aufkommens großer Sprachmodelle versetzte Studierende in „Panik“, und die Institutionen hätten besser „ehrlich“ gewesen sein sollen, wenn sie sich immer noch mit den Auswirkungen neuer Technologien befasst hätten, so Experten.

Mark Simpson, stellvertretender Vizekanzler der Teesside University, sagte Times Higher EducationLaut einer Veranstaltung von Digital Universities UK hat der Sektor „einen Fehler gemacht“, als chatgpt vor 18 Monaten eingeführt wurde.

„Unsere erste Reaktion auf KI bestand darin, nach Möglichkeiten zu suchen, sie zu erkennen, und wir gingen schnell dazu über, sie in die Vorschriften für akademisches Fehlverhalten aufzunehmen. Unser Gespräch mit den Studenten lautete also: „Benutze KI und wir werden dich bestrafen.“ Das versetzte die gesamte Studentenschaft in Panik“, sagte er bei der Veranstaltung an der University of Exeter.

Dieser Fokus auf die Bewertung habe sich von den Gesprächen abgewandt, die darüber geführt werden müssten, wie künstliche Intelligenz im Lernprozess eingesetzt werden könne, sagte Professor Simpson, was die Schüler als „viel weniger Bedrohung“ ansehen würden.

„Es ist wichtig, einen Rahmen zu haben, in dem alle agieren, und dieser muss auf lokaler Ebene angepasst werden“, fügte er hinzu. „Aber wir alle mögen auch Gewissheit, und ich denke, dass Studierende, die beurteilt werden, diese Gewissheit wollen. Wir müssen also sicher sein, wo wir sein können, aber wir müssen den Dialog mit unseren Schülern offen halten und akzeptieren, dass dies etwas ist, was wir gemeinsam lernen.

„Diese Technologie wird sich ständig verändern und weiterentwickeln, und auch die Art und Weise, wie wir darauf reagieren, wird sich ändern.“

Siehe auch  Lehrer werden nie wissen können, ob Schüler KI verwenden, OpenAI ist formal

Miriam Firth, die akademische Leiterin für Beurteilungen an der Universität Manchester, stimmte zu, dass die Art und Weise, wie Studierende KI bei der Beurteilung einsetzen, weiterhin viele Kollegen beschäftigt.

Dies spiegelt sich in den Bedenken der Studierenden wider, sagte Dr. Firth, der letztes Jahr für den Branchenverband Jisc eine Forschungsstudie durchführte, in der die Wahrnehmung von KI durch Studierende untersucht wurde.

„Wir haben festgestellt, dass die Schüler über die ihnen gegebene Anleitung besorgt sind. Sie wünschen sich weitaus explizitere Informationen zu der Frage: „Kann ich das verwenden, sollte ich es verwenden und wenn ja, wie?““, sagte sie.

Ein weiteres Anliegen der Studenten bezog sich auf die Frage, ob ihre Dozenten KI zur Erstellung von Kursen nutzen würden, und befürchteten, dass Kursinhalte von Computern und nicht von menschlichen Experten erstellt würden, fügte Dr. Firth hinzu.

Sie sagte, Ehrlichkeit gegenüber den Schülern sei der Schlüssel zur Bewältigung ihrer Sorgen. „Wenn es das erste Mal ist, dass ein Verhaltenskodex für den Einsatz von KI zur Beurteilung angewendet wird, dann sagen Sie das“, sagte sie.

„Es geht darum, einen offenen, gemeinsam gestalteten und geleiteten Ansatz zu verfolgen und gleichzeitig zuzugeben, dass wir im Moment keine Antworten haben und sich die Dinge so schnell ändern, dass wir nur stolpern, wenn wir versuchen, der Art und Weise mehr Grenzen zu setzen uns selbst auf und schaffen mehr Probleme als Lösungen.“

Matthew Yee-King, ein Akademiker in der Informatikabteilung der Goldsmiths University of London, der den Online-Informatikstudiengang der University of London leitet, sagte, die nächsten Entwicklungen in der KI würden sich auf die Erstellung von Modellen konzentrieren, die einen Plan formulieren und ihn dann umsetzen könnten. Dies würde einen weiteren Schritt in der Leistungsfähigkeit der Technologie bedeuten.

Siehe auch  Das neue Upgrade von ChatGPT durchbricht endlich die Textbarriere

Andy Beggan, Dekan für digitale Bildung an der University of Lincoln, warnte jedoch davor, dass sich der Sektor immer noch mitten in einem „Hype-Zyklus“ befinde, in dem KI-„Lösungen“ geschaffen würden, die ein anerkanntes Problem nicht wirklich lösen.

Erst wenn die Universitäten diesen Moment überstanden hätten, könne man beginnen, den wahren Wert der KI zu verstehen und zu verstehen, wie sie genutzt werden könne, ohne ihre Auswirkungen zu „überschätzen“, sagte Herr Beggan.

Professor Simpson von Teesside sagte, es sollte auch mehr darüber nachgedacht werden, was KI für die psychische Gesundheit von Schülern bedeutet, da die Institutionen ihre Reaktionen auf die neue Technologie verfeinern.

„Wir haben Probleme mit der digitalen Inklusion und dem Zugang zu KI und zusätzlichem Druck, da die Gefahr besteht, dass KI den Standard, den wir von der Arbeit der Studierenden erwarten, weiter erhöht“, sagte er.

„Das wird je nach Qualifikation unterschiedlich sein, und wir haben auch alle Probleme mit digitalen Foren und Absprachen – all dieser Raum muss in diesem Fall berücksichtigt werden.“

[email protected]

5/5 - (210 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein