Ein Professor an der Texas A&M University in Commerce beschuldigte Studenten, beim Schreiben von Aufsätzen mithilfe künstlicher Intelligenz betrogen zu haben. Schreibt darüber Das Register.
Der Koordinator der Fakultät für Agrarwissenschaften und natürliche Ressourcen, Jared Mumm, überprüfte die Authentizität der Texte mithilfe von ChatGPT. Ihm zufolge markierte das Werkzeug einen Teil der von der Maschine erstellten Arbeit.
Die Situation führte dazu, dass Schätzungen eingefroren und weitere Untersuchungen eingeleitet wurden. Die verdächtigen Studenten gestanden, KI zum Schreiben von Aufsätzen genutzt zu haben.
Infolgedessen wurde der Hälfte der akademischen Gruppe vorübergehend die Ausstellung von Diplomen verweigert.
„Ich gebe jedem in diesem Kurs ein X. Ich bewerte KI-Bullshit nicht“, sagte Mumm den Studenten.
Universitätsbeamte haben die Verwendung des X-Scores bestätigt, bei dem es sich ihrer Meinung nach um eine vorübergehende Maßnahme während der laufenden Untersuchung handelt.
Die Universität stellte fest, dass sie für einige Studenten die Möglichkeit eines Betrugs ausschloss, während andere beschlossen, einen neuen Aufsatz zur Bewertung einzureichen. Mindestens ein Student hat zugegeben, ChatGPT zum Abschließen der Aufgabe zu verwenden.
„A&M at Commerce bestätigt, dass kein Student aufgrund dieses Problems den Unterricht nicht bestanden hat oder vom Abschluss suspendiert wurde. „Beamte untersuchen den Vorfall und entwickeln eine Richtlinie zur Bekämpfung des Missbrauchs von KI-Technologie“, heißt es in der Erklärung.
Die Verwaltung hat außerdem mit der Entwicklung und Implementierung von Tools begonnen, die KI-Texte in Hausarbeiten identifizieren.
Eine mit der Situation vertraute Quelle sagte, der Konflikt nähere sich seinem Ende. Die Universität erkannte angeblich die Rechtswidrigkeit der Entscheidung des Lehrers an.
„Dies war völlig außerhalb des Protokolls und eine unangemessene Verwendung von ChatGPT. Nun, zumindest hat niemand in den Anschuldigungen Schimpfwörter verwendet“, sagte er.
Laut Experten sind selbst fortschrittliche Detektoren generierter Texte nicht in der Lage, eine Fälschung genau zu erkennen.
„Da große Sprachmodelle besser werden, um Menschen nachzuahmen, wird der bestmögliche Detektor eine Genauigkeit von fast 50 % erreichen“, sagte Vinu Sankar Sadasivan, ein Doktorand an der University of Maryland.
Er fügte hinzu, dass Detektoren durch Paraphrasierung der Ausgabe eines großen Sprachmodells getäuscht werden können. Sadasivan forderte, man müsse lernen, mit der Tatsache leben, dass wir möglicherweise nie in der Lage sein werden, KI-Text zuverlässig von menschlichem Text zu unterscheiden.
„Wir sollten diese Detektoren nicht verwenden, um ein endgültiges Urteil zu fällen“, sagte er.
Erinnern Sie sich daran, dass im Dezember 2022 ein Professor Studenten wegen der Fälschung eines Aufsatzes mithilfe von ChatGPT verurteilt hat.
Im Januar verboten die New York Public Schools die Nutzung des Chatbots auf dem Campus. Später schlossen sich ihnen die größten Universitäten Australiens an.
Im selben Monat veröffentlichte OpenAI einen generierten Textdetektor. Bald wurde ChatGPT beigebracht, die Einschränkungen des Tools zu umgehen.
Haben Sie einen Fehler im Text gefunden? Wählen Sie es aus und drücken Sie STRG+ENTER
ForkLog-Newsletter: Bleiben Sie am Puls der Bitcoin-Branche!