Wir alle, die in der Hochschulbildung arbeiten, müssen sorgfältig abwägen, was künstliche Intelligenz, insbesondere chatgpt, leisten kann und was nicht.
Für diejenigen wie mich, die für die Entwicklung von Beurteilungen verantwortlich sind, wird dies uns ermöglichen, unsere Fragen neu zu formulieren, um sicherzustellen, dass die KI nicht bestehen kann.
Hier präsentiere ich eine grafische Darstellung, wie wir ChatGPT-Ausgaben bewerten könnten. Um diesen Punkt zu veranschaulichen, habe ich speziell ein Beispiel ausgewählt, das außerhalb des Hochschulumfelds liegt.
Ich habe ChatGPT gebeten, ein Häkelmuster für einen Chihuahua zu schreiben. Abbildung 1 unten zeigt, wie ein Chihuahua aussieht. Ein kleiner brauner Hund mit spitzen Ohren, einem lockigen Schwanz und vier Beinen. Er heißt Loki.
Als Reaktion darauf erstellte ChatGPT zusammenhängende Textanweisungen, die es jemandem, der häkeln kann, ermöglichten, ein fertiges Objekt herzustellen. Es entstand eine Kreatur. Abbildung 2 unten ist das Ergebnis. Es ist eine braune Kugel mit zwei Ohren und einem kleinen Schwanz. Das Muster funktionierte: Es gab in passender Sprache Hinweise, wann mehr Stiche hinzugefügt und wann die Anzahl der Stiche verringert werden sollte, um die Form zu schaffen, wann die Füllung eingefügt werden sollte und wo die Ohren und der Schwanz angenäht werden sollten.
Lassen Sie uns also die Ausgabe bewerten.
Wenn ChatGPT gebeten wird, ein Häkelmuster für einen Chihuahua zu erstellen (denken Sie daran, es ist textbasiert; es kann keinen Chihuahua zeichnen), wird es eines erstellen. Es ist verfügbar Hier für schlaue Kollegen zum Ausprobieren!
Das Muster hat mir also geraten, eine passende farbige Wolle zu wählen ungefähr richtig. Es gibt zwei Ohren und einen Schwanz. Hier endet die Ähnlichkeit jedoch.
Hier verwende ich Beispieldeskriptoren auf Universitätsniveau und wende sie auf das Muster an, das „eingereicht“ wurde. Um die vollständigen Beispielbewertungskriterien anzuzeigen, können Sie das PDF oben herunterladen.
Wir bewerten nach den Kriterien „Kenntnisse und Verständnis des Themas“, „kognitive/intellektuelle Fähigkeiten“, „Nutzung forschungsbasierter Literatur“ und „Fähigkeiten für Leben und Beruf“.
Wissen und Verständnis des Themas
0-25 %, fehlgeschlagen: Weitgehend ungenaues oder irrelevantes Material. Wenig oder keine Hinweise auf sachliches und konzeptionelles Verständnis des Themas oder auf Lektüre/Forschung.
Kognitive/intellektuelle Fähigkeiten
40-49 %, 3., Durchgang: Es gibt einige Belege für eine Analyse und Bewertung, aber es gibt schon Arbeit hauptsächlich beschreibend mit einer unkritischen Annahme von Informationen, und unbegründete Meinungen können offensichtlich sein. Mangel an logischer Entwicklung eines Arguments.
Verwendung forschungsinformierter Literatur
26-39 %, scheitern: Kaum oder kein Beweis für die Fähigkeit, Theorie und Praxis in Beziehung zu setzen. Kaum oder kein Verweis auf forschungsinformierte Literatur.
Kompetenzen für Leben und Beruf
60-69 %, 2:1, Leistung: Die Struktur ist kohärent und logisch und zeigt den Fortschritt des Arguments. Es gibt nur wenige Fehler in der Darstellung oder im Zitat. Zeigt Qualitäten und übertragbare Fähigkeiten, die für eine Anstellung erforderlich sind.
Wir haben also einen kohärenten Text, der dem Disziplinarstandard entspricht (dh ich könnte ihm folgen und einen fertigen Artikel erstellen). Es zeigt das Verständnis einiger Elemente der Aufgabe (zwei Ohren und ein Schwanz). Auf dieser Grundlage konnte die Arbeit abgeschlossen werden.
Aber es ist doch kein Chihuahua, oder? Das denkt ein echter Chihuahua:
Was beweist das also?
Die Aufgabe und die damit verbundenen Kriterien waren nicht gut gestaltet, sodass eine extrem schlechte Einreichung genügend Punkte zum Bestehen erhielt. Allerdings war es weit von einer guten Note entfernt.
Daher müssen wir sorgfältig überlegen, was wir von den Studierenden erwarten und welche Lernergebnisse das Modul erreichen soll.
Wenn das angestrebte Lernergebnis darin bestand, ein zusammenhängendes Häkelmuster zu erstellen, war die Hinzufügung eines Chihuahua ein unnötiges Element. Auf dieser Grundlage schnitt ChatGPT recht gut ab.
Wenn wir jedoch wollten, dass die Schüler eine Nachbildung eines Chihuahua anfertigen, die ein umfassendes Verständnis der physischen Eigenschaften des Chihuahua demonstriert Familienhund Arten, bei denen sowohl Ähnlichkeiten als auch Unterschiede zwischen den Chihuahua und anderen Rassen bewertet wurden, scheiterte ChatGPT eher kläglich.
Es geht wirklich um alles.
Tipps, um KI-Betrugslösungen zu verwirren:
1. Das KI-Tool kann nicht hinter Firewalls vordringen. Verweisen Sie daher auf bestimmte Materialien, beispielsweise auf Ihre Unterrichtsnotizen (zitieren Sie die Quellen auf Folie 8 aus Woche 6) oder auf Ihren Text (unter Verwendung der Primärquelle ab Seite 350 des Kerntextes …) ) oder eine Liste von Quellen, die sich in einer Datenbank wie JSTOR befinden.
2. Nutzen Sie die aktuellste Konversation in Ihrem Bereich. Dies kann helfen, fiktive Bezüge auszusortieren. Wenn Sie sich auf einen im Jahr 2020 veröffentlichten Text beziehen und Studierende bitten, einen Aufsatz zu schreiben, der ihn kritisch analysiert, dann wissen Sie, dass alle Artikel, von denen der Student behauptet, dass sie sich darauf beziehen, die aber vor 2020 datiert sind, falsch sein müssen.
3. KI ist unerbittlich positiv und politisch korrekt. Bitten Sie die Schüler, ein Argument zur Unterstützung einer moralisch schlechten Handlung zu verfassen.
4. Bitten Sie darum, dass Ihre Ausgabe in einem Format vorliegt, das KI nicht erzeugen kann, z. B. als Foliensatz, Poster oder Infografik.
5. Mein Favorit – wenn du sie nicht schlagen kannst, dann schließe dich ihnen an. Lassen Sie die Schüler die KI bitten, einen Aufsatz zu schreiben und ihn dann zu kritisieren. Mit dieser Lösung helfen Sie Studierenden, dieses Werkzeug des 21. Jahrhunderts anzunehmen, seine Vorteile und Grenzen zu erkennen und auch ihr eigenes Wissen unter Beweis zu stellen.
Es besteht kein Zweifel, dass dieses Dilemma häufiger auftreten wird. Wenn wir uns von Prüfungssälen mit Reihen von Schreibtischen entfernen, in denen die Schüler in einer festgelegten Zeit und in Stille auf eine Reihe von Fragen antworten, müssen wir etwas kreativer werden, wenn es darum geht, wie wir sie bitten, ihr Gelerntes zu demonstrieren. Diese Tipps können kurzfristig helfen und den Weg für neue Bewertungsansätze ebnen.
Karen Kenny ist eine leitende akademische Entwicklerin, die sich auf die Unterstützung akademischer Nachhilfe an der University of Exeter konzentriert.
Wenn Sie dies interessant fanden und jede Woche Ratschläge und Einblicke von Wissenschaftlern und Universitätsmitarbeitern direkt in Ihren Posteingang erhalten möchten, Melden Sie sich für den Campus-Newsletter an.