• Von Hazel Shearing und Shiona McCallum
  • Bildungskorrespondent und Technologiereporter

Bildquelle, Getty Images

Wenn die Prüfungssaison beginnt, könnten die Schüler versucht sein, sich neuen Werkzeugen der künstlichen Intelligenz (KI) zuzuwenden, um ihnen bei Prüfungen einen Vorteil zu verschaffen.

Universitäten haben sich bemüht, zu verstehen, wozu KI-Anwendungen wie chatgpt in der Lage sind, und Anleitungen zu ihrer Verwendung einzuführen – und jetzt werden sie aufgefordert, Studenten beizubringen, wie man sie benutzt.

Akademiker der University of Bath haben die Herausforderungen und Möglichkeiten in Betracht gezogen.

„Unsere erste Frage war: ‚Könnten dies von Studenten verwendet werden, um unsere Bewertungsfragen zu beantworten?'“, sagt James Fern über ChatGPT – ein Online-Tool, das Fragen beantworten kann, einschließlich der Erstellung von Aufsätzen und E-Mails, in menschenähnlicher Sprache.

Bildbeschreibung,

James hat sich angesehen, wie robust die Einschätzungen seiner Abteilung sind

„Multiple-Choice-Fragen zum Beispiel werden damit sehr gut gehandhabt.

„Wir hatten definitiv nicht erwartet, dass es so gut abschneiden würde … es war fast 100 % richtig.“

Aber mit komplexeren Fragen, die kritisches Denken von den Schülern erfordern, hat es Probleme.

Ein Beispiel aus einer Abschlussbeurteilung lautet: „Warum ist es wichtig, den Zeitpunkt des Trainings in Bezug auf den Ernährungszustand bei Menschen mit zu verstehen? [a technical term, according to James] Übergewicht?“

Und es gibt verräterische Anzeichen dafür, dass die von ChatGPT gegebene Antwort nicht von einem Studenten geschrieben wurde.

Einige der Aussagen ähneln jedoch eher denen eines GCSE-Schülers als eines Universitätsstudenten.

Es hat die Angewohnheit, die genaue Formulierung der Frage in seinen Einleitungen und Schlussfolgerungen zu wiederholen, „nur in leicht unterschiedlicher Weise geschrieben“.

Und beim Zitieren von Informationsquellen, wie es in der wissenschaftlichen Arbeit üblich ist, werden diese einfach erfunden.

„Sie sehen perfekt aus – sie haben die richtigen Namen von Autoren, sie haben die richtigen Namen von Zeitschriften, die Titel klingen alle sehr vernünftig – sie existieren einfach nicht“, sagt James.

„Wenn Sie nicht wissen, wie große Sprachmodelle funktionieren, könnten Sie sehr leicht glauben, dass dies echte Referenzen sind.“

Seit ChatGPT vor etwa sechs Monaten für die Öffentlichkeit freigegeben wurde, waren viele Studenten unsicher, wann sie es verwenden können und wann nicht.

„Ich könnte versucht sein, ChatGPT zu verwenden … aber derzeit habe ich zu viel Angst davor, weil Sie erwischt werden könnten“, sagt ein Student, der zwischen den Vorlesungen auf dem Campus spazieren geht.

„Es ist noch nicht klar, was mit ChatGPT als Betrug gilt“, sagt ein anderer. „Wenn Sie Ihre gesamte Aufgabe von ChatGPT kopiert haben, ist das Betrug – aber es kann wirklich hilfreich sein, Sie zu führen.“

Ein neuer Rat der Quality Assurance Agency, die Standards an britischen Universitäten überprüft, fordert sie auf, Studenten mit KI-Fähigkeiten auszustatten, die sie in die Arbeitswelt mitnehmen können.

Es ermutigt sie, neuen und wiederkehrenden Studenten im September zu erklären, wie und wann KI eingesetzt werden sollte – und Kurse gegebenenfalls anzupassen.

Bildbeschreibung,

Kim sagt, dass ChatGPT helfen wird, „Studenten mit Dingen anzufangen“

„Ich schlage vor, dass Schüler zu ChatGPT gehen, diejenigen, die vielleicht nicht wissen, wo sie anfangen sollen … und anfangen, mit Eingabeaufforderungen herumzuspielen“, sagt sie.

„Es wird ihnen keine Antworten geben – aber es kann ihnen Ideen geben.“

‚Kritisches Denken‘

Kim demonstriert, indem er ChatGPT bittet, einen eigenen Marketingplan zu erstellen.

Es antwortet mit einer Reihe von nummerierten Punkten – alles von der Schaffung einer Markenidentität bis zur Nutzung von Social Media.

Aber Kim, die von ihrem Bildschirm aufblickt, sagt: „Das wird nicht passieren.

„So etwas einzureichen ist einfach nicht detailliert genug – es zeigt uns kein Lernen, es zeigt kein kritisches Denken.“

Neurodivergente Schüler und diejenigen, für die Englisch nicht ihre Muttersprache ist, werden am meisten von ChatGPT profitieren, sagt Kim.

Aber jeder Schüler, der sich dafür entscheidet, es zu verwenden, wird gebeten, seine ChatGPT-Eingabeaufforderungen und -Antworten als Anhang einzureichen, um „wirklich deutlich zu machen, wie weit er von den Chatbot-Antworten gekommen ist“.

Prüfungen im Sommer

Wie bei den meisten Universitäten ist Baths Richtlinie zu ChatGPT und anderen KI-Tools noch in Arbeit. Ab September soll es soweit sein.

Danach trifft sich ein Team das ganze Jahr über, um sicherzustellen, dass es mit der sich schnell ändernden Technologie Schritt hält.

Inzwischen legen viele Mitarbeiter wieder persönliche, beaufsichtigte Sommerprüfungen ab.

Das Tempo, mit dem sich die Technologie weiterentwickelt, stellt die Universitäten vor eine Herausforderung – aber Bath entfernte sich schnell von Gesprächen über ein Verbot.

Bildbeschreibung,

Chris sagt, dass das Tempo, in dem sich die Technologie ändert, eine Herausforderung für Universitäten darstellt

„Dieses Tool wird nicht verschwinden“, sagt Chris.

„Um sicherzustellen, dass unsere Studenten mit den Fähigkeiten ausgestattet sind, die sie für den zukünftigen Arbeitsplatz benötigen, aber auch, dass unsere Abschlüsse aktuell bleiben, müssen wir uns engagieren.“

‚Zu gefährlich‘

Prof. Verena Rieser, Informatikerin an der Heriot-Watt-Universität, die seit zwei Jahrzehnten im KI-Bereich arbeitet, sagt, dass ihre eigenen Studenten es „auf sehr kreative Weise einsetzen“ – aber Chatbots befinden sich noch in einem frühen Entwicklungsstadium und „ kann verwendet werden, um Fehlinformationen zu generieren [a] Ausmaß, das offensichtlich sehr besorgniserregend ist“, wenn es um Bildung geht.

Frühere Modelle von ChatGPT wurden nicht veröffentlicht, weil sie als „zu gefährlich“ eingestuft wurden, sagt sie.

Sein Entwickler, OpenAI, sagt, „wie jede Technologie sind diese Tools mit echten Risiken verbunden“ und es funktioniert, „um sicherzustellen, dass die Sicherheit auf allen Ebenen in unser System integriert ist“.

„Ich würde erwarten, dass wir bald verschiedene Arten von ChatGPT von verschiedenen Unternehmen da draußen sehen werden und hoffentlich auch sicherere Modelle, die die möglichen Gefahren tatsächlich mindern“, sagt Verena.

„Im Moment wissen wir nicht wirklich, wie wir verhindern können, dass die Modelle falsche, giftige oder hasserfüllte Informationen ausgeben – und das ist ein großes Problem.“

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein