Newswise – Während die öffentliche Veröffentlichung des auf künstlicher Intelligenz basierenden Chatbots für große Sprachen, chatgpt, große Aufregung über das Versprechen der Technologie und den erweiterten Einsatz von KI hervorgerufen hat, hat sie auch für Aufsehen gesorgt ein gutes Stück Angst darüber, was ein Programm, das in Sekundenschnelle einen passablen Aufsatz auf Hochschulniveau erstellen kann, für die Zukunft des Lehrens und Lernens bedeutet. Natürlich führte diese Bestürzung zu einer Verbreitung von Erkennungsprogrammen – unterschiedlicher Wirksamkeit – und ein entsprechendes Zunahme der Vorwürfe des Betrugs. Doch wie stehen die Studierenden zu all dem? Kürzlich veröffentlichte Forschungsergebnisse der Drexel University Tim Gorichanaz, Ph.D.,bietet einen ersten Einblick in einige Reaktionen von College-Studenten, denen vorgeworfen wird, ChatGPT zum Betrügen genutzt zu haben.

Die Studieveröffentlicht in der Zeitschrift Lernen: Forschung und Praxis analysierte im Rahmen einer Reihe über generative KI 49 Reddit-Beiträge und die dazugehörigen Diskussionen von College-Studenten, denen vorgeworfen wurde, ChatGPT für einen Auftrag verwendet zu haben. Gorichanaz, Assistenzprofessor bei Drexel Hochschule für Informatik und Informatikidentifizierte eine Reihe von Themen in diesen Gesprächen, insbesondere die Frustration über zu Unrecht beschuldigte Studenten, die Angst vor der Möglichkeit, zu Unrecht beschuldigt zu werden und wie man dies vermeiden kann, sowie schleichende Zweifel und Zynismus hinsichtlich der Notwendigkeit einer höheren Bildung im Zeitalter der generativen künstlichen Intelligenz .

„Während sich die Welt der Hochschulen gemeinsam darum bemüht, Best Practices und Richtlinien rund um den Einsatz von Tools wie ChatGPT zu verstehen und zu entwickeln, ist es für uns wichtig zu verstehen, wie sich die Faszination, Angst und Furcht, die mit der Einführung neuer Bildungstechnologien einhergeht, auch auf die Studierenden auswirkt die ihren eigenen Prozess durchlaufen, um herauszufinden, wie man es nutzt“, sagte Gorichanaz.

Siehe auch  Facebook schärft seine Metaverse-Waffen

Von den 49 Studenten, die etwas gepostet haben, gaben 38 an, dass sie ChatGPT nicht nutzen, aber Erkennungsprogramme wie Turnitin oder GPTZero hatten ihre Aufgabe dennoch als KI-generiert gekennzeichnet. Infolgedessen nahmen viele Diskussionen den Tenor einer juristischen Auseinandersetzung an. Die Studenten fragten, wie sie Beweise vorlegen könnten, um zu beweisen, dass sie nicht betrogen hätten. Einige Kommentatoren empfahlen, weiterhin zu leugnen, dass sie das Programm verwendet hätten, da die Detektoren unzuverlässig seien.

„Viele der Studenten äußerten Bedenken hinsichtlich der Möglichkeit, von einem KI-Detektor zu Unrecht beschuldigt zu werden“, sagte Gorichanaz. „Einige Diskussionen gingen sehr detailliert darauf ein, wie Studierende Beweise sammeln können, um zu beweisen, dass sie einen Aufsatz ohne KI geschrieben haben, einschließlich der Verfolgung von Entwurfsversionen und der Verwendung von Bildschirmaufzeichnungssoftware. Andere schlugen vor, einen Detektor für ihre eigenen Schriften laufen zu lassen, bis sie zurückkamen, ohne dass sie fälschlicherweise markiert wurden.“

Ein weiteres Thema, das in den Diskussionen auftauchte, war die wahrgenommene Rolle von Hochschulen und Universitäten als „Torwächter“ zum Erfolg und die daraus resultierenden hohen Risiken, die mit der fälschlichen Beschuldigung des Betrugs einhergehen. Dies führte zu Fragen hinsichtlich der Bereitschaft der Institutionen für die neue Technologie und zu Bedenken, dass Professoren zu sehr von KI-Detektoren abhängig sein würden – deren Die Genauigkeit bleibt zweifelhaft.

„Die im Internet geführten Diskussionen entwickelten sich von spezifischen Zweifeln an der Genauigkeit der KI-Erkennung und den Richtlinien der Universitäten zum Einsatz generativer KI bis hin zu einer allgemeinen Infragestellung der Rolle der Hochschulbildung in der Gesellschaft und der Vermutung, dass die Technologie Hochschuleinrichtungen in der Zukunft irrelevant machen wird.“ „In naher Zukunft“, sagte Gorichanaz.

Siehe auch  Hey ChatGPT, wessen Burger ist besser?McDonald's und Burger King stehen sich in der Luft gegenüber und werden zu einem Fall kreativer KI-Werbung

Die Studie zeigte auch einen Vertrauensverlust unter Studierenden – und zwischen Studierenden und ihren Professoren – auf, der auf die Wahrnehmung der Studierenden zurückzuführen ist, dass sie ständig unter Betrugsverdacht stehen. Eine Reihe von Kommentaren verdeutlichte die Verschlechterung dieser Beziehungen:

  • „Von all meinen Professoren hätte ich nie damit gerechnet, von ihm angeklagt zu werden.“
  • „Natürlich vertraut sie diesem KI-Detektor mehr als uns.“
  • „Ich weiß, dass ich ganz bestimmt nicht plagiiert habe, aber leider kann man anderen nicht immer vertrauen.“

Die generative KI-Technologie hat die Hochschulen gezwungen überdenken ihre pädagogischen Beurteilungspraktiken und Richtlinien zum Thema Betrug. Der Studie zufolge stellen Studierende viele der gleichen Fragen.

„Es gab Kommentare zu Richtlinieninkonsistenzen, bei denen Schüler für die Verwendung einiger KI-Tools wie ChatGPT bestraft, aber dazu ermutigt wurden, andere KI-Tools wie Grammarly zu verwenden. Andere Studenten schlugen vor, dass die Verwendung generativer KI zum Verfassen einer Arbeit nicht als Plagiat betrachtet werden sollte, da es sich um eine Originalarbeit handele“, sagte Gorichanaz. „Viele Studenten kamen zu dem gleichen Schluss, mit dem sich Universitäten auseinandersetzen: die Notwendigkeit, die Technologie verantwortungsvoll zu integrieren und bei der Lernbewertung über Aufsätze hinauszugehen.“

Die Studie könnte eine wichtige Rolle dabei spielen, Hochschulen und Universitäten dabei zu helfen, ihre Studenten über den Einsatz generativer KI-Technologie zu informieren, schlägt Gorichanaz vor.

„Obwohl es sich um eine relativ kleine Stichprobe handelt, sind diese Ergebnisse dennoch nützlich, um zu verstehen, was die Schüler gerade durchmachen“, sagte er. „Zu Unrecht beschuldigt zu werden oder ständig unter dem Verdacht zu stehen, KI zum Betrügen eingesetzt zu haben, kann für Studierende eine erschütternde Erfahrung sein. Es kann das Vertrauen schädigen, das für eine qualitativ hochwertige Bildungserfahrung so wichtig ist. Daher müssen Institutionen konsistente Richtlinien entwickeln, diese den Studierenden klar kommunizieren und die Grenzen der Erkennungstechnologie verstehen.“

Siehe auch  Die unverschämt dämlichen Vorhersagen von ChatGPT zur Meisterschaft 2023-24 beweisen, dass wir weit von Skynet entfernt sind

Gorichanaz stellte fest, dass selbst die besten KI-Detektoren so viele Fehlalarme produzieren könnten, dass Professoren fälschlicherweise Dutzende von Studenten beschuldigen könnten – was angesichts der Risiken eindeutig inakzeptabel ist.

„Anstatt zu versuchen, KI-Detektoren zu verwenden, um zu bewerten, ob diese Beurteilungen echt sind, ist es für Ausbilder möglicherweise besser, andere Arten von Beurteilungen zu entwerfen: solche, bei denen der Prozess wichtiger ist als das Produkt, oder häufigere Beurteilungen mit geringerem Risiko“, schrieb er und schlug zusätzlich vor dass Lehrkräfte Module zum angemessenen Einsatz generativer KI-Technologie hinzufügen könnten, anstatt deren Einsatz vollständig zu verbieten.

Während die Studie eine thematische Analyse bietet, schlägt Gorichanaz vor, dass zukünftige Forschungen die Stichprobe auf eine statistisch relevante Größe erweitern und sie aus Quellen ziehen könnten, die über englischsprachige Gespräche auf Reddit hinausgehen.

5/5 - (364 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein