Am 30. November ist es ein Jahr her, dass chatgpt der Öffentlichkeit zugänglich gemacht wurde. Der Dienst hatte große Auswirkungen auf die Wissenschaft, insbesondere wenn es um Betrug ging. Sechs Studenten wurden beim Schummeln erwischt Dort, wo der Einsatz von Werkzeugen auf Basis künstlicher Intelligenz (KI) vermutet wurde, müssen Universitäten und Hochschulen Regeln und Richtlinien für den Einsatz schaffen und die Akademiker haben sich viele Gedanken darüber gemacht, was das für die Zukunft bedeutet.
„Vielleicht war es doch gar nicht so gruselig“, sagt Pinar Heggernes, Vizekanzlerin der Universität Bergen (UiB).
Große dunkle Zahlen
Eirik Vassenden ist Professor für nordische Literatur an der UiB. Er sagte im Anschluss an den Start von ChatGPT: NRK dass der Dienst das Potenzial habe, „Schüler, Studenten und Forscher faul und dumm zu machen und leicht ausnutzbar zu machen“.
Ein Jahr später meint er, dass enorm viel passiert ist. Sowohl sinnvolle Dinge, etwa der Einsatz des Tools in der Forschung, aber auch Missbrauch, etwa das Schummeln bei Prüfungen.
– Einige der befürchteten Dinge sind eingetreten. Da dies ein gutes Werkzeug zum Erstellen von Texten oder zum Erstellen von Texten ist, die aussehen, als könnten Menschen sie schreiben, wird es hier zwangsläufig große dunkle Zahlen geben. „Es ist äußerst schwierig zu wissen, wie viele Menschen dieses Tool in der von Ihnen befürchteten Weise missbraucht haben“, sagt Vassenden.
— Ich habe jetzt fast so viele Fragen wie vor einem Jahr. Und es gehe unter anderem darum, dass die Entwicklung sehr schnell sei und dass es nicht so einfach sei zu erkennen, was wir können und was nicht, wofür wir das nutzen sollten und was nicht, sagt er.
Faul und dumm
— Glauben Sie, dass Schüler, Studenten und Mitarbeiter damals faul, dumm und leicht ausnutzbar geworden sind, wie Sie letztes Jahr betont haben?
– Es hat sich herausgestellt, dass diese Frage schwer zu beantworten ist. Von Seiten der Institutionen sieht man keine allzu radikalen Veränderungen im Prüfungs- und Studienalltag. „Ich höre aus Klassenzimmern, anekdotisch auch von Lehrern, dass Texte einfließen, bei denen man schnell erkennen kann, dass sie nicht von den Schülern selbst geschrieben wurden“, sagt Vassenden.
Dennoch glaubt er, dass es sich in Grundschulen wahrscheinlich um ein größeres und weiter verbreitetes Problem handelt als an Universitäten.
„Es ist schwer zu erkennen, und die KI-Erkennungstools, über die gesprochen wurde, dass Software künstliche Intelligenz erkennen sollte, werden nicht sehr allgemein verwendet“, sagt Vassenden.
Obwohl er KI-Tools als positive Aspekte sieht, hat dies Auswirkungen auf die von ihm angebotene Prüfung:
– Wir haben uns von vielen Arten von Prüfungsaufgaben entfernt. Das sind alles kurze, definierende Fragen, darin ist diese Technologie gut, daher ist es fast sinnlos, sie zu stellen. Möchte man vermeiden, dass die Sprachmodelle genutzt werden können, dann gehe es eher darum, Prüfungen und Tests so zu gestalten, dass sie Interpretation, Beurteilung und Diskussion erfordern, sagt der Professor.
lesen Sie auch:
Sie erhält den Verbreitungspreis des Forschungsrats. Aber sie glaubt, dass sie in ein paar Jahren langsamer werden muss
GPT UiO ist beliebt
Im September kam ein separater und konkurrierender Dienst von der Universität Oslo (UiO), nämlich GPT UiO. Die Universität gibt an, rund 12.000 aktive Nutzer unter Mitarbeitern und Studierenden zu haben. Der Dienst wurde entwickelt, um die Privatsphäre zu schützen und sicherzustellen, dass Daten von Studierenden und Mitarbeitern nicht auf unerwartete Weise für Schulungsmodelle verwendet werden.
Alle Hochschulen und Universitäten können den Service bis Weihnachten kostenlos testen. Es gibt bereits viele Menschen, die Datenverarbeitungsverträge unterzeichnet und ihre FEIDE-Benutzer zur Nutzung freigegeben haben, aber hauptsächlich kommen die Benutzer von einigen größeren Institutionen (siehe Faktenbox).
UiO sagt, dass es seit dem Start einige Änderungen gegeben hat. Unter anderem haben sie auf Wunsch der Studierenden einen „Dark Mode“ geschaffen, was bedeutet, dass der Hintergrund des Dienstes dunkel ist. Und sie haben Filter auf der „Rückseite“ von GPT UiO entfernt, was bedeutet, dass GPT UiO nicht zensiert, was Benutzer posten. Nutzer müssen in jedem Fall weiterhin die Geschäftsbedingungen befolgen, die sie für die Nutzung des Dienstes akzeptieren.
lesen Sie auch:
Karianne Tung: Ohne die Wissenschaft können wir das Potenzial nicht ausschöpfen
Hat mir die Augen für KI geöffnet
Vizerektor Heggernes an der UiB ist davon überzeugt, dass ein Jahr mit ChatGPT die Wissenschaft positiv beeinflusst hat und dass die Wissenschaft nun versteht, dass es notwendig ist, sich mit KI auseinanderzusetzen.
— Erst jetzt mit ChatGPT haben die meisten Menschen begonnen, sich mit KI zu identifizieren. Ich finde es positiv, dass nicht nur in unserer Branche jeder mit künstlicher Intelligenz zu tun hat. „Wir haben unsere Augen dafür geöffnet“, sagt Heggernes.
— Hat sich dadurch die Art und Weise verändert, wie Sie die Studierenden an der UiB betreuen?
– Ich möchte ja sagen, aber das ist etwas, das Zeit braucht. Kurz nach dem Start von ChatGPT hatten wir ein Seminar, um die Funktionsweise dieser Sprachmodelle zu beleuchten, und die Hochschullehrer machten darauf aufmerksam, dass man hier anders denken und arbeiten muss. Es betreffe Prüfungsformen, betont der Rektor.
— Wir haben immer noch viele Prüfungen in physischen Sälen oder mündliche Prüfungen, und das nimmt die Möglichkeit, KI zu nutzen. Gleichzeitig gehen einige Fachlehrer in die andere Richtung und fördern den Einsatz von ChatGPT, damit die Schüler sehen können, wie es funktioniert, sagt Heggernes.
lesen Sie auch:
Drei Studenten der UiB wurden wegen des Verdachts auf KI-Betrug gesperrt
Die Definition von Betrug
Heggernes stellt auch die Frage, wie man KI-Betrug definiert und was für Studierende akademisch nützlich sein kann. Beispielsweise können Studierende Gespräche mit ChatGPT führen, um Ideen zu finden und Konzepte zu verstehen, aber vielleicht nicht, um sich Wissen anzueignen.
Gerade beim Wissenserwerb kommen viele Verdachtsmomente auf Betrug mithilfe von KI-Tools ans Licht: An der UiB wurden in diesem Jahr drei Studierende beim Schummeln erwischt weil sie „fiktive Quellen“ verwendet haben. Obwohl sich viele über eine Zunahme des Betrugs nach der Verfügbarkeit von ChatGPT Sorgen gemacht haben, war das Spoofing von Quellen schon immer verboten.
Heggernes sagt, UiB sei besorgt über den Mangel an Werkzeugen, um solche Betrügereien aufzudecken, aber im Nachhinein erkenne sie, dass dies möglicherweise nicht der größte Bedarf sei.
– Meiner Erfahrung nach sind wir etwas zuversichtlicher, dass die geltenden Vorschriften ziemlich viel abdecken. Wir betonen, dass wir von den Studierenden erwarten, dass sie in ihren Texten selbstständig arbeiten, reflektieren und kritisch bewerten, und das sei nicht neu, sagt sie.
„Vielleicht war es doch gar nicht so gruselig.“
lache auch:
Fachlehrer über Gesprächsroboter: „Das ist wie Doping.“
Es finden keine Hausprüfungen mehr statt
Chrono sprach zu Beginn des Jahres mit dem Sportsoziologen Arve Hjelseth, der Professor am Institut für Soziologie und Politikwissenschaft der NTNU ist. Damals erwog er, aufgrund von ChatGPT und ähnlicher Technologie von Heimprüfungen auf Schulprüfungen umzusteigen. Er teilt Khrono nun mit, dass er sich entschieden hat.
„Für die Prüfung in diesem Herbst war es zu spät, die Prüfungsform zu ändern, aber ab dem nächsten Jahr werde ich nur noch Schulprüfungen in dem Fach haben, das ich leite“, sagt Hjelseth.
Seiner Meinung nach müsste die Hausprüfung, wenn sie konstruktiv sein soll, durch eine mündliche Prüfung ergänzt werden, was sehr ressourcenintensiv ist.
Er weist außerdem darauf hin, dass es für mich als externer Zensor schwierig ist, zu beurteilen, wie viel selbst geschriebener Text ist und was beispielsweise aus ChatGPT besteht.
„In den letzten Jahren habe ich zunehmend Zweifel am Wert von Heimprüfungen gehabt, auch einigermaßen unabhängig von ChatGPT“, sagt er.
lesen Sie auch:
Berücksichtigung strengerer ChatGPT-Regeln für Einreichungen und Prüfungen
Erbärmliches kleines Problem
Morten Irgens verfügt über eine lange Erfolgsgeschichte, wenn es um Technologie geht. Er war Mitbegründer des norwegischen Forschungskonsortiums für künstliche Intelligenz (Nora), war Vorsitzender des norwegischen Zentrums für Informationssicherheit (Norsis) und war an der Gründung des Zentrums für Cyber- und Informationssicherheit beteiligt.
Er arbeitet seit 35 Jahren mit KI zusammen, reiste 1991 in die USA und blieb dort 17 Jahre lang. Warum? Weil die vorherrschenden Informatikgemeinschaften in Norwegen kein Vertrauen in KI hatten.
Irgens glaubt, dass sich im vergangenen Jahr bei der Wahrnehmung von ChatGPT durch die Menschen viel getan hat. Aber es gibt immer noch viele Leute, die es falsch verwenden.
— Einige verwenden ChatGPT als Wissensmodell, aber das ist nicht der Fall. Es handelt sich um ein Modell, das eine Reihe wahrscheinlicher Beziehungen zwischen Text und Wörtern usw. aufweist. Wenn man es also als Wissensmodell verwendet, gibt es ein Problem, sagt Irgens.
Darüber hinaus gibt es viele, die Herausforderungen statt Chancen gesehen haben.
— Vor einem Jahr waren alle sehr nervös darüber, wie sie die Heimprüfung absolvieren sollten, nachdem ChatGPT angekommen war. Es sei ein erbärmlich kleines Problem im Vergleich zu all den Möglichkeiten, die KI bietet, um die Forschung und die Wirksamkeit der Lehre zu verbessern, meint Irgens.
Maschinen und Schach
Er glaubt, dass die Wissenschaft bei der Einführung dieser Technologie auf dem Rückzug ist. Einige Institutionen bringen ihren Studenten nicht einmal den Umgang mit den Tools bei. Er glaubt, dass sich das ohnehin ändern wird und die Menschen sehen werden, welche Möglichkeiten Forschung und Lehre haben, um durch KI beeinflusst zu werden.
Irgens zieht einen weiteren Thread, als Maschinen anfingen, Schach zu spielen. Es ist nun fünfzehn Jahre her, dass der weltbeste Schachspieler ein Mensch war.
„Das Wichtigste, was entdeckt wurde, als die Maschinen die Menschen besiegten, war, dass sie Schach spielten, was noch kein Mensch zuvor getan hatte, und Züge machten, an die niemand gedacht hatte. Es ist eine Analogie zur Forschung und zur Lehre. Das sei der Kern, sagt Irgens.
lesen Sie auch:
Prozess wegen Selbstplagiat: – Ich will Gerechtigkeit