[ad_1]

Als Philosophieprofessor Darren Hick letztes Semester in seinem Klassenzimmer an der Furman University auf einen weiteren Fall von Betrug stieß, postete er ein Update an seine Follower in den sozialen Medien: „Uuuuund, ich habe meinen zweiten chatgpt-Plagiator erwischt.“

Freunde und Kollegen antworteten, einige mit Emojis mit großen Augen. Andere zeigten sich überrascht.

„Nur 2?! Ich habe Dutzende gefangen“, sagte Timothy Main, ein Schreibprofessor am Conestoga College in Kanada. „Wir sind im vollen Krisenmodus.“

Praktisch über Nacht sind ChatGPT und andere Chatbots mit künstlicher Intelligenz zur Anlaufstelle für Betrug im College geworden.

Jetzt überdenken Pädagogen, wie sie in diesem Herbst Kurse von „Schreiben 101“ bis hin zu Informatik unterrichten werden. Pädagogen sagen, dass sie das Potenzial der Technologie zum Lehren und Lernen auf neue Weise nutzen wollen, aber wenn es um die Beurteilung von Schülern geht, sehen sie die Notwendigkeit, Testfragen und -aufgaben „ChatGPT-sicher“ zu machen.

Für einige Dozenten bedeutet dies eine Rückkehr zu Papierprüfungen, nachdem jahrelang nur digitale Tests durchgeführt wurden. Einige Professoren verlangen von den Studierenden die Vorlage von Bearbeitungshistorien und Entwürfen, um ihren Denkprozess zu belegen. Andere Ausbilder sind weniger besorgt. Manche Schüler hätten schon immer Möglichkeiten zum Betrügen gefunden, sagen sie, und dies sei nur die neueste Option.

Eine Explosion von KI-generierten Chatbots, darunter ChatGPT, das im November eingeführt wurde, hat neue Fragen für Akademiker aufgeworfen, die sicherstellen wollen, dass Studierende nicht nur die richtige Antwort erhalten, sondern auch verstehen, wie die Arbeit erledigt wird. Zumindest bei einigen der drängendsten Herausforderungen bestehe Einigkeit, sagen Pädagogen.

— Sind KI-Detektoren zuverlässig? Noch nicht, sagt Stephanie Laggini Fiore, stellvertretende Vizeprovostin an der Temple University. Diesen Sommer war Fiore Teil eines Teams bei Temple, das den von Turnitin, einem beliebten Dienst zur Plagiatserkennung, verwendeten Detektor testete und feststellte, dass er „unglaublich ungenau“ sei. Es funktioniere am besten bei der Bestätigung menschlicher Arbeit, sagte sie, sei aber bei der Identifizierung von Chatbot-generiertem Text lückenhaft und bei hybrider Arbeit am wenigsten zuverlässig.

Siehe auch  Die WHO fordert die Menschheit dringend auf, sich vor ChatGPT und anderen KI-Chatbots in Acht zu nehmen

— Werden Schüler fälschlicherweise beschuldigt, Plattformen für künstliche Intelligenz zum Betrügen zu nutzen? Absolut. In einem Fall im letzten Semester beschuldigte ein texanischer A&M-Professor fälschlicherweise eine ganze Klasse, ChatGPT für Abschlussarbeiten verwendet zu haben. Der Großteil der Klasse wurde anschließend entlastet.

— Wie können Pädagogen also sicher sein, dass ein Schüler einen KI-gestützten Chatbot unehrlich verwendet hat? Es ist fast unmöglich, es sei denn, ein Schüler gesteht, wie es beide Schüler von Hicks taten. Im Gegensatz zu Plagiaten der alten Schule, bei denen der Text mit der Quelle übereinstimmt, aus der er stammt, ist KI-generierter Text jedes Mal einzigartig.

„In manchen Fällen ist das Betrügen offensichtlich“, sagt Main, der Schreibprofessor, der Studenten dazu gebracht hat, Aufgaben einzureichen, bei denen es sich eindeutig um Cut-and-Paste-Aufgaben handelte. „Ich erhielt Antworten, die lauteten: ‚Ich bin nur ein KI-Sprachmodell, dazu habe ich keine Meinung‘“, sagte er.

In seinem Pflichtkurs zum Schreiben im ersten Jahr im letzten Semester verzeichnete Main 57 Probleme mit der akademischen Integrität, eine Explosion akademischer Unehrlichkeit im Vergleich zu jeweils etwa acht Fällen in den beiden vorangegangenen Semestern. Etwa die Hälfte davon war auf KI-Betrug zurückzuführen.

In diesem Herbst überarbeiten Main und seine Kollegen den vorgeschriebenen Schreibkurs für Studienanfänger an der Schule. Die Schreibaufgaben werden personalisierter gestaltet, um die Schüler zu ermutigen, über ihre eigenen Erfahrungen, Meinungen und Perspektiven zu schreiben. Für alle Aufgaben und Lehrpläne gelten strenge Regeln, die den Einsatz künstlicher Intelligenz verbieten.

Die Hochschulverwaltung hat die Dozenten dazu ermutigt, die Grundregeln klar zu formulieren.

Viele Institutionen überlassen die Entscheidung, ob Chatbots im Unterricht eingesetzt werden oder nicht, den Ausbildern, sagte Hiroano Okahana, Leiter des Education Futures Lab beim American Council on Education.

An der Michigan State University wird den Lehrkräften „eine kleine Bibliothek mit Aussagen“ zur Verfügung gestellt, aus denen sie auswählen und die Lehrpläne nach eigenem Ermessen ändern können, sagte Bill Hart-Davidson, stellvertretender Dekan am College of Arts and Letters der MSU, der KI-Workshops für Lehrkräfte leitet um neue Aufgaben und Richtlinien mitzugestalten.

Siehe auch  ChatGPT schreibt einen Beitrag zum Eurovision Song Contest für Carlisle

„Stellen Sie den Schülern Fragen wie: ‚Sagen Sie mir in drei Sätzen, was ist der Krebs-Zyklus in der Chemie?‘ Das wird nicht mehr funktionieren, denn ChatGPT wird eine vollkommen gute Antwort auf diese Frage ausspucken“, sagte Hart-Davidson, der vorschlägt, Fragen anders zu stellen. Geben Sie beispielsweise eine Beschreibung mit Fehlern an und bitten Sie die Schüler, darauf hinzuweisen.

Es häufen sich die Beweise dafür, dass Chatbots die Lerngewohnheiten und die Art und Weise, wie Studierende nach Informationen suchen, verändert haben.

Chegg Inc., ein Online-Unternehmen, das Hausaufgabenhilfe anbietet und in zahlreichen Betrugsfällen angeführt wurde, erlebte im Mai einen Einbruch seiner Aktien an einem einzigen Tag um fast 50 %, nachdem sein CEO Dan Rosensweig davor gewarnt hatte, dass ChatGPT sein Wachstum beeinträchtige. Er sagte, dass Studenten, die normalerweise für Cheggs Service bezahlen, jetzt stattdessen die KI-Plattform von ChatGPT kostenlos nutzen.

In Temple sei in diesem Frühjahr die Nutzung von Recherchetools wie Bibliotheksdatenbanken nach dem Aufkommen von Chatbots deutlich zurückgegangen, sagte Joe Lucia, Dekan der Universitätsbibliotheken.

„Es schien, als würden die Studenten darin eine schnelle Möglichkeit sehen, Informationen zu finden, die nicht den Aufwand oder die Zeit erfordert, die nötig wäre, um zu einer speziellen Ressource zu gehen und damit zu arbeiten“, sagte er.

Solche Abkürzungen geben unter anderem deshalb Anlass zur Sorge, weil Chatbots dazu neigen, Dinge zu erfinden, ein Fehler, der als „Halluzination“ bekannt ist. Entwickler sagen, dass sie daran arbeiten, ihre Plattformen zuverlässiger zu machen, aber es ist unklar, wann und ob das passieren wird. Pädagogen machen sich auch Sorgen darüber, was Schüler durch das Überspringen von Schritten verlieren.

„Es wird einen großen Wandel zurück zu papierbasierten Tests geben“, sagte Bonnie MacKellar, Informatikprofessorin an der St. John’s University in New York City. Die Disziplin habe bereits ein „massives Plagiatsproblem“, da Studenten sich Computercode von Freunden ausliehen oder ihn aus dem Internet kopierten, sagte MacKellar. Sie befürchtet, dass Schüler der Grundstufe, die KI-Abkürzungen anwenden, sich um die Fähigkeiten betrügen, die sie für Oberstufenklassen benötigen.

Siehe auch  ChatGPT kann menschliche Urteile über Regelverstöße nicht reproduzieren

„Ich höre Kollegen in geisteswissenschaftlichen Studiengängen dasselbe sagen: Es geht zurück zu den Blue Books“, sagte MacKellar. Zusätzlich dazu, dass die Schüler in ihren Einführungskursen ihren Code handschriftlich schreiben müssen, werden die Papierprüfungen in diesem Herbst einen höheren Prozentsatz der Note ausmachen, sagte sie.

Ronan Takizawa, Student im zweiten Jahr am Colorado College, hat noch nie von einem Blue Book gehört. Für ihn als Hauptfach Informatik fühlt sich das wie ein Rückschritt an, aber er stimmt zu, dass dies die Studenten dazu zwingen würde, den Stoff zu lernen. „Die meisten Studenten sind nicht diszipliniert genug, um ChatGPT nicht zu verwenden“, sagte er. Papierprüfungen „würden Sie wirklich dazu zwingen, die Konzepte zu verstehen und zu lernen.“

Takizawa sagte, Schüler seien manchmal verwirrt darüber, wann der Einsatz von KI in Ordnung sei und wann es Betrug sei. Die Verwendung von ChatGPT zur Unterstützung bei bestimmten Hausaufgaben, beispielsweise beim Zusammenfassen der Lektüre, scheint sich nicht vom Besuch von YouTube oder anderen Websites zu unterscheiden, die Schüler seit Jahren nutzen, sagte er.

Andere Studenten sagen, dass die Einführung von ChatGPT sie paranoid gemacht hat, weil ihnen Betrug vorgeworfen wird, obwohl sie es nicht getan haben.

Nathan LeVang, Student im zweiten Jahr an der Arizona State University, sagt, dass er jetzt alle Aufgaben noch einmal überprüft, indem er sie durch einen KI-Detektor laufen lässt.

Bei einem Aufsatz mit 2.000 Wörtern markierte der Detektor bestimmte Absätze als „22 % von Menschen geschrieben, überwiegend mit KI-Stimmen“.

„Ich dachte: ‚Das ist definitiv nicht wahr, weil ich einfach hier gesessen und es Wort für Wort geschrieben habe‘“, sagte LeVang. Aber er hat diese Absätze trotzdem umgeschrieben. „Wenn ich nach dem Schreiben meines Aufsatzes zehn Minuten brauche, um sicherzustellen, dass alles richtig ist, ist das in Ordnung. Es ist zusätzliche Arbeit, aber ich denke, das ist die Realität, in der wir leben.“

[ad_2]

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein