Die zunehmende Verwendung von chatgpt durch Studierende zum Schreiben von Essays sollte nach Ansicht von Wissenschaftlern Anlass zu einem Umdenken darüber geben, ob die aktuellen Richtlinien zur Förderung einer „ethischen“ Nutzung künstlicher Intelligenz funktionieren.

Da die Bewertungssaison in vollem Gange ist, beschweren sich Dozenten in großer Zahl in den sozialen Medien über KI-generierte Inhalte in ihren eingereichten Arbeiten.

Verräterische Anzeichen für die Verwendung von ChatGPT sind laut Wissenschaftlern unter anderem die Verwendung wenig verwendeter Wörter wie „vertiefen“ und „vielschichtig“, die Zusammenfassung wichtiger Themen in Aufzählungspunkten und ein schriller Gesprächsstil mit Ausdrücken wie „Lasst uns dieses Thema untersuchen“.

Ein offensichtlicheres Indiz dafür war die Aussage eines Professors, dass eine Anzeige für ein Unternehmen für KI-Aufsätze in der Einleitung eines Aufsatzes vergraben; ein anderer Akademiker bemerkte, dass ein Student vergessen, eine Chatbot-Anweisung zu entfernen dass der Inhalt KI-generiert wurde.

„Ich hatte keine Ahnung, wie viele darauf zurückgreifen würden“, gab ein britischer Juraprofessor.

Des Fitzgerald, Professor für medizinische Geistes- und Sozialwissenschaften am University College Cork, sagte Times Hochschulbildung dass die Nutzung von KI durch Studenten in diesem Jahr „völlig zum Mainstream geworden“ sei.

„Wenn man sich eine Reihe von Aufsätzen ansieht, bemerkt man die Eigenheiten der ChatGPT-Aufsätze, die teilweise auf die Wiederholung bestimmter Wörter oder Sätze zurückzuführen sind, aber auch einfach eine Art Aura maschineller Banalität aufweisen, die schwer zu beschreiben ist, wenn man sie noch nie gehört hat – ein Aufsatz ohne Kanten, der technisch nichts falsch oder schlecht macht, aber auch nicht viel richtig oder gut“, sagte Professor Fitzgerald.

Seit dem Aufkommen von ChatGPT Ende 2022 haben einige Universitäten Richtlinien eingeführt, die den Einsatz von KI erlauben, solange er anerkannt wird, während andere begonnen haben, KI-Inhaltsdetektoren einzusetzen, obwohl die Meinungen über deren Wirksamkeit geteilt sind.

Siehe auch  Apple und OpenAI schließen Zusammenarbeit zur Einführung von ChatGPT auf dem iOS 18-System ab

Laut der jüngsten Student Academic Experience Survey, für die Advance HE und das Higher Education Policy Institute rund 10.000 britische Studenten befragten, nutzen 61 Prozent von ihnen KI jeden Monat zumindest ein wenig, „auf eine von ihrer Einrichtung erlaubte Weise“, während 31 Prozent dies jede Woche tun.


Campus-Ressource: Können wir von KI geschriebene Inhalte erkennen?


Professor Fitzgerald sagte, dass einige Kollegen zwar „der Meinung sind, wir müssten damit einfach leben, und dass wir sogar die Pflicht hätten, den Studenten beizubringen, wie man es gut nutzt“, er jedoch „völlig gegen“ die Verwendung von KI-Tools für Essays sei.

„ChatGPT ist das komplette Gegenteil von allem, was ich als Lehrer tue – mit Schülern zu arbeiten, um sie mit Texten zu beschäftigen, Ideen zu durchdenken, zu lernen, komplexe Gedanken zu klären und auszudrücken, mit diesen Gedanken Risiken einzugehen und eine Art unverwechselbare innere Stimme zu finden. ChatGPT ist für all das das absolute Gift und wir müssen es einfach verbieten“, sagte er.

Steve Fuller, Soziologieprofessor an der University of Warwick, stimmte zu, dass der Einsatz künstlicher Intelligenz in diesem Jahr „auffälliger geworden“ sei, obwohl seine Studenten Verträge unterzeichnet hatten, in denen sie erklärten, sie nicht zum Schreiben von Essays zu verwenden.

Er sagte, er habe nichts dagegen, wenn die Studierenden diese Technik verwenden, „solange ihr Text intelligent und auf den Punkt klingt und der Prüfer nicht erkennen kann, dass er ihn einfach komplett aus einer anderen Quelle übernommen hat“.

Wer sich stark auf die Technologie verlässt, muss trotz Bestehens wahrscheinlich mit einer relativ schlechten Note rechnen, sagt Professor Fuller.

Siehe auch  Kriminelle haben ihre eigenen Klone von ChatGPT und Bard erstellt: Was können sie tun?

„Studenten begehen regelmäßig Fehler in sachlichen, logischem Denken und Grammatik [without ChatGPT]doch wenn ihr Text genügend Grundlagen der Aufgabe berührt, werden sie wahrscheinlich irgendwo im niedrigen bis mittleren 60er-Bereich landen. ChatGPT leistet glaubwürdige Arbeit bei der Simulation einer solchen Mittelmäßigkeit, und das ist für viele seiner studentischen Benutzer gut genug“, sagte er.

Allerdings ist die Notwendigkeit, solche mittelmäßigen Aufsätze, die zum Teil von der KI erstellt wurden, zu korrigieren, ein wachsender Kritikpunkt unter Akademikern. On X, Ökonom der Lancaster University Renaud Foucart sagte, dass die Bewertung von KI-generierten Aufsätzen „viel mehr Zeit in Anspruch nimmt, [because] Ich muss mich viel mehr konzentrieren, um die vielen scheinbar logischen Aussagen zu durchforsten, die in Wirklichkeit voller Leere sind.“

„Mein größtes Problem [with AI] ist weniger die moralische Frage des Schummelns, sondern mehr das, was ChatGPT den Studenten bietet“, fügte Professor Fitzgerald hinzu. „Alles, was es kann, ist [writing] schlechte Aufsätze, die aus Nicht-Ideen und leeren Sätzen bestehen. Es ist keine Maschine zum Betrügen; es ist eine Maschine zum Produzieren von Mist.“

[email protected]

5/5 - (322 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein