Alice Nah, Michael Noh, Junhwan Oh

Alice Nah, Michael Noh, Junhwan Oh

Hannah Choo, Aiden Choi, Benny Yu

Hannah Choo, Aiden Choi, Benny Yu

chatgpt, ein von OpenAI entwickelter Chatbot mit künstlicher Intelligenz (KI), könnte ein großartiges Werkzeug für Studierende sein, um effizienter zu lernen, aber nur, wenn die Probleme hinsichtlich akademischer Integrität und Ungenauigkeit angegangen werden.

Während ChatGPT Studenten wohl dabei hilft, besser zu lernen und effizienter zu forschen, nehmen die Bedenken hinsichtlich Plagiaten und Ungenauigkeiten zu.

Diese neue Technologie hilft Schülern, ein Konzept zu verstehen, indem sie ihnen neue Einblicke in ein bestimmtes Thema verschafft. Beispielsweise hilft Code Interpreter, eine neue Funktion von ChatGPT, Benutzern dabei, Schlüsselideen in einem bestimmten Datensatz zu identifizieren, indem es Trends oder Anomalien erkennt.

Ebenso kann ChatGPT Studierenden einen Ausgangspunkt für die Recherche von Projekten, das Verfassen von Forschungsarbeiten und die Vorbereitung auf Prüfungen bieten.

„[ChatGPT] hat mir beim Brainstorming von Ideen geholfen … es kann bei bestimmten Aufgaben ein nützliches Werkzeug sein“, sagte Charlie Kook, ein 14-jähriger Schüler der Korea International School, der ChatGPT für sein aktuelles Ingenieurprojekt nutzte.

ChatGPT verwendet große Datenmengen aus Online-Quellen, um die seiner Meinung nach angemessenste Antwort auf eine bestimmte Frage zusammenzustellen, die den Schülern einige hilfreiche Richtlinien bieten kann.

Einige Schulen freuen sich bereits darauf, ChatGPT in ihre Programme zu integrieren.

Seattle „diskutiert über eine mögliche Ausweitung der Nutzung von ChatGPT auf Klassenzimmer … um Schülern die Möglichkeit zu geben, die Anwendung als ‚persönlichen Tutor‘ zu nutzen“, erklärte Tim Robinson, der direkte Sprecher der Seattle Public Schools, in einem Interview mit CBC News.

Daher sind viele Pädagogen der Meinung, dass das Tool das Potenzial hat, Schüler in ihrem Lernprozess zu unterstützen.

Siehe auch  6 Möglichkeiten, ChatGPT zu Ihrer Produktivitätsmaschine zu machen

„[ChatGPT] können ein Wort definieren, seinen Teil der Sprache identifizieren, Beispielsätze bereitstellen und zusätzliche Bedeutungen anbieten“, schrieben Lucas Kohnke, Dozent an der Education University of Hong Kong, und sein Team in ihrer aktuellen Studie.

Experten warnen jedoch davor, dass ChatGPT Risiken für die akademische Integrität birgt, beispielsweise durch Plagiate.

„GPT-3 [an AI model ChatGPT uses] in der Hochschulbildung hat das Potenzial, eine Reihe von Vorteilen zu bieten“, sagte Debby Cotton, Professorin für Hochschulbildung an der Plymouth Marjon University, kürzlich in einem Interview mit The Guardian. „Allerdings werfen diese Tools auch eine Reihe von Herausforderungen und Bedenken auf, insbesondere im Hinblick auf akademische Ehrlichkeit und Plagiate.“

Schüler können die KI ganz einfach nutzen, um beispielsweise Quizfragen, Formationstests und sogar Abschlussprüfungen zu absolvieren, da die Antworten auf Probleme durch einfaches Eingeben der Fragen in ChatGPT erhalten werden können.

Laut einer Umfrage von Study.com gaben etwa 48 Prozent der College-Studenten in den Vereinigten Staaten an, dass sie ChatGPT verwendet haben, während sie zu Hause einen Test oder ein Quiz absolvierten, während etwa 50 Prozent sagten, sie hätten es geschafft, einen Aufsatz für sie zu schreiben. Die Online-Bildungsplattform befragte 1.000 Studierende. Mehrfachnennungen waren erlaubt.

Studierende, die KI-Modelle wie ChatGPT nutzen, trüben den Hauptzweck von Beurteilungen und behindern so die Fähigkeit von Schulen und Universitäten, den Fortschritt eines Studierenden richtig zu messen.

Obwohl Lehrer ständig nach Gegenmaßnahmen suchen, um KI-generierte Arbeit zu erkennen, ist es immer noch schwierig, illegitime Arbeit zu unterscheiden.

„Es werden Detektoren entwickelt, aber es gibt auch Fehlalarme“, sagte Grace Lee, Leiterin der Englischabteilung am Saint Paul Preparatory Seoul. „[ChatGPT plagiarism] bereitet Englischlehrern große Kopfschmerzen.“

Siehe auch  ChatGPT bereitet seine Revolution vor, ein wichtiger Hinweis zu GPT-5 wurde enthüllt

Während KI-generierte wissenschaftliche Aufsätze oft nur den einzelnen Studierenden betreffen, können ganze Studienbereiche in die Irre geführt werden, wenn eine KI zum Verfassen eines wissenschaftlichen Artikels verwendet wird.

In einer von Catherine Gao und ihrem Team von der Northwestern University und der University of Chicago durchgeführten Studie wurde ChatGPT gebeten, anhand vorhandener Arbeiten gefälschte wissenschaftliche Zusammenfassungen zu erstellen. Zu diesem Zweck hat ChatGPT überzeugende Zusammenfassungen mit gefälschten Daten erstellt; Nur 68 Prozent der Freiwilligen konnten den generierten Text unter legitimen Abstracts identifizieren.

Studierende, die mithilfe von ChatGPT nach Lernmöglichkeiten suchen, werden möglicherweise auch durch das Tool in die Irre geführt, da es für Personen ohne Hintergrundkenntnisse in einem bestimmten Fach schwierig ist, die Gültigkeit der Antworten zu beurteilen.

„Weil diese Systeme [such as ChatGPT] „Wenn man so selbstbewusst reagiert, … ist es sehr schwierig, zwischen Fakten und Unwahrheiten zu unterscheiden“, sagte Kate Crawford, Professorin an der University of Southern California, während eines Interviews mit der Washington Post.

Experten sagen, dass eine Regulierung des Einsatzes von KI dringend erforderlich ist, um die Technologie in eine positive Richtung weiterzuentwickeln.

„Wir müssen geeignete Leitplanken für die Universität und Transparenz darüber schaffen, wie die Universität diese Tools in ihren Diensten nutzt“, erklärte Brandie Nonnecke, Gründungsdirektorin des CITRIS Policy Lab, einem Labor an der University of California in Berkeley, das sich auf das Studium von Vorschriften konzentriert, an Berkeley News.

Als Reaktion auf den Ruf nach Transparenz entwickelt OpenAI eine Möglichkeit, seine Ergebnisse mit einem Wasserzeichen zu versehen.

Scott Aaronson, ein OpenAI-Gastforscher, sprach in einem Vortrag an der University of Texas über eine neue Funktion für ChatGPT, die Betrug und Plagiate bekämpft, indem sie durch die Optimierung der spezifischen Wortwahl „Ausgaben statistisch mit Wasserzeichen markiert“. Die Wasserzeichen sind zwar für das bloße Auge nicht wahrnehmbar, würden aber bei der Suche nach Zeichen des generierten Textes offensichtlich sein.

Siehe auch  ChatGPT kann jetzt festlegen, dass Ihre Identität und Vorlieben gespeichert werden

Derzeit sind solche Regelungen noch nicht umgesetzt und es bleibt abzuwarten, ob sie ausreichen oder nicht.

VON ALICE NAH, MICHAEL NOH, JUNHWAN OH, HANNAH CHOO, AIDEN CHOI, BENNY YU [[email protected], [email protected], [email protected], [email protected], [email protected], [email protected]]

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein