EVERETT – Kathy Purviance-Snow, Lehrerin der Snohomish High School, hat im vergangenen Jahr mehrmals den Verdacht geäußert, dass Schüler künstliche Intelligenz für ihre Hausaufgaben nutzen.
Ihr Bezirk nutzt Turnitin, eine Software, die erkennt, wie viel Prozent einer Aufgabe plagiiert oder mit generativer künstlicher Intelligenz erstellt wurde. Purviance-Snow, Lehrerin für Staatsbürgerkunde und Betriebswirtschaft, wird bei allem über 25 % misstrauisch. Wenn der Wert über 50 % liegt, vermutet sie stark einen KI-Missbrauch.
Oder wie ältere Generationen es nennen würden: Betrug.
Ein Jahr nachdem OpenAI seinen Chatbot chatgpt veröffentlicht hat, suchen Schulen im Snohomish County nach Möglichkeiten, akademische Ehrlichkeit zu fördern und durchzusetzen, da Betrug einfacher denn je geworden ist.
Als kurzfristige Lösung blockierten die Schulbezirke Everett und Snohomish den Zugriff auf die Software auf ihren Geräten. Andere Bezirke, wie Edmonds und Lake Stevens, beschlossen, KI nicht zu verbieten.
Chris Bailey, Technologiedirektor des Edmonds School District, sagte, es handele sich um ein „Gerechtigkeitsproblem“. Er sagte, dass Schüler, die über persönliche oder familiäre elektronische Geräte verfügten, trotzdem auf den Chatbot zugreifen konnten.
Das Everett Community College verwendet keine Erkennungssoftware.
Inzwischen veröffentlichen Schulbezirke wie Snohomish und Edmonds neue Verhaltenskodizes zum Thema künstliche Intelligenz.
'Ich versuche, mich auf die Seite der Gnade zu stellen.
Purviance-Snow stellt fest, dass der Anstieg des Betrugs mit dem plötzlichen Anstieg des Fernunterrichts während der Pandemie einherging.
„Kinder haben ein wenig von ihrem Mut verloren, ein wenig von dem Wunsch, tatsächlich zu lernen, sie wollen einfach nur fertig werden“, sagte sie. „Sie wollen einfach nur etwas abgeben.“
Bei ChatGPT seien einige Lehrer laut Purviance-Snow „altmodisch“ geworden und erlaubten den Schülern nur, handschriftliche Aufgaben einzureichen.
Aber das überlässt den Lehrern die manuelle Kontrolle.
Purviance-Snow vertraut Turnitin als Tool zur Analyse der Arbeit ihrer Schüler. Beispiele für Fragen, die sie bei der Benotung stellt, sind: „Verwenden sie Wörter außerhalb ihres Wortschatzes?“ oder „Passt die Stimme des Textes zu früheren Aufgaben des Schülers?“
Wenn sie einen Schüler anruft, gibt sie ihm die Möglichkeit, zu seiner Entscheidung zu stehen und die Aufgabe zu wiederholen.
„Ich versuche, auf der Seite der Gnade zu bleiben, denn Kinder machen Fehler, Menschen machen Fehler“, sagte sie.
Für Bailey aus Edmonds sind Erkennungssoftware wie Turnitin nicht zuverlässig.
„Eine der Herausforderungen bei diesen Technologien besteht darin, dass sie künstliche Intelligenz nutzen. Es ist eine Art KI, die mit der KI konkurriert“, sagte er. „Wir sind auf der Suche nach einem Werkzeug, dessen Verwendung unserer Meinung nach sicher und angemessen ist.“
„Gib etwas tiefer“
Purviance-Snow glaubt, dass KI einen Platz in der Bildung hat. Sie hat es selbst verwendet, um Lehrbücher, die ihrer Meinung nach für das College-Niveau geschrieben wurden, „abzuschwächen“. Das spart ihr Zeit.
„Wir wollen keine Ludditen sein“, sagte sie und bezog sich dabei auf die britischen Textilarbeiter des 19. Jahrhunderts, die Maschinen in Textilfabriken kaputt machten in gewalttätigen Protesten gegen die Ausbeutung der Arbeiter, die mit der Industrialisierung einhergingen.
Purviance-Snow hat auch von einem ortsansässigen Studenten gehört, dessen Arbeit für den KI-Einsatz gekennzeichnet war. Der Student bestätigte, dass er Grammarly verwendet, eine Software, die Zeichensetzung und Grammatik korrigiert und die Lesbarkeit verbessert. Sie meint, das sollte erlaubt sein.
Ende letzten Jahres leitete Bailey eine Arbeitssitzung der Schulbehörde zum Thema künstliche Intelligenz. Das Ergebnis war ein neuer Student AI Code von Benehmen.
Der Verhaltenskodex, der gemeinsam mit dem State Office of Superintendent of Public Instruction und der Association of Educational Service Districts verfasst wurde, unterstreicht die Notwendigkeit, dass Lehrer „Zugang zu den authentischen Lerndarstellungen der Schüler haben“.
Die Informationen werden nun Teil des jährlichen digitalen Bürgerschulungstrainings des Bezirks für Schüler sein.
Andere Institutionen beziehen Studierende in die Erstellung ihrer Richtlinien ein.
In Edmonds bestand der Ansatz darin, die Schüler auf die Risiken einer zu großen Abhängigkeit von KI sowie auf die damit verbundenen Vorurteile hinzuweisen, sagte Bailey.
„Wir können nicht einfach dem vertrauen, was da steht“, sagte Bailey. „Wir müssen etwas tiefer graben und versuchen, die Quellen hinter den Inhalten zu verstehen, die für uns generiert werden.“
„Stressige und aufregende Wege“
Am Everett Community College haben einige Fakultätsmitglieder das College gebeten, Erkennungssoftware zu kaufen.
Hannah Lovett, die Direktorin für Bildungstechnologie der Schule, sagte, die Hochschule befürchte Fehlalarme und die Schaffung eines Klimas des ständigen Misstrauens.
Auch der Geschichtsprofessor Derek Nelson ist besorgt über den unangemessenen Verdacht gegenüber unterversorgten Studenten.
Einmal schickte er eine E-Mail an einen Studenten, von dem er glaubte, er hätte KI genutzt. Der Student bestritt dies und Nelson hatte das Gefühl, dass das Vertrauen gebrochen sei.
Seitdem spricht er lieber mit Studierenden darüber, wie ihrer Meinung nach die KI-Richtlinien aussehen sollten. Nelson hofft, Noten beim Lernen weniger wichtig zu machen.
„KI durchbricht wirklich unsere Bewertungsschemata, und ich denke, das könnte eine gute Sache sein“, sagte er. „Das zwingt uns dazu, Beurteilungen zu erstellen, die authentisches Lernen fördern.“
Fünf Professoren und drei Administratoren, die mit The Daily Herald sprachen, zeigten sich begeistert davon, KI zur Förderung des Lernens einzusetzen. Aber es gibt eine Generationslücke.
Nelson sagte, er habe gesehen, wie ein älteres Fakultätsmitglied beschlossen habe, sofort in den Ruhestand zu gehen, als es von ChatGPT erfuhr.
Um den Wandel zu erleichtern, hat die Hochschule Veranstaltungen – hauptsächlich für Lehrkräfte – organisiert, um mehr über die Rolle der KI in der Bildung zu erfahren.
Viele Professoren überdenken Aufgaben.
Unmittelbar nach dem Start von ChatGPT Ende November 2022 sah Dana Harker, eine Englischprofessorin, mit dem Tool verfasste Arbeiten.
Sie waren meilenweit vom Thema entfernt und unterschieden sich stark von den früheren Arbeiten der Studierenden. Keiner hat bestanden.
Nachdem sie in Panik geraten war, beschloss sie, sich vorzubeugen.
„Es hat meinen Unterricht grundlegend auf wirklich stressige und aufregende Weise verändert“, sagte sie.
Bei ihrer ersten Aufgabe in Englisch 101 lassen die Schüler nun ihre Aufsätze über ChatGPT laufen, um Feedback zu erhalten. Auf diese Weise wissen sie, dass sie davon weiß.
Harker begann mit Schülern zu sprechen, um zu verstehen, warum sie es nutzten. Normalerweise sind sie beschäftigt oder es mangelt ihnen an Selbstvertrauen.
„Es ist tief mit dem Selbst verbunden. Es besteht der Druck, das Gefühl zu haben, perfekt sein zu müssen“, sagte sie. „Sie wollen nicht wie sie selbst klingen, weil sie Angst haben, etwas falsch zu machen.“
„Sie hat gerade die Antworten bekommen“
Im November schrieb Avery Colinas, ein studentischer Journalist an der Cavelero Mid High School in Lake Stevens, einen Artikel über die Wirkung von KI auf Ausbildung.
In einem Interview sagte der Neuntklässler, dass künstliche Intelligenz manche Aufgaben wie anstrengende Arbeit wirken lässt.
„Warum lernen wir es, wenn wir es in Sekundenschnelle erledigen können?“ Sie fragte.
Sie fügte hinzu: „Ich habe auch das Gefühl, dass Menschen dadurch fast langsam weniger notwendig werden.“
In aufsatzbasierten Kursen seien Plagiatsdetektoren eine wirksame Abschreckung, sagte sie.
Ihr Englischlehrer bittet die Schüler, ihre Telefone wegzulegen, und überprüft den Änderungsverlauf des Dokuments auf Kopieren und Einfügen. Eine Software namens google Classroom kann ChatGPT ebenfalls erkennen.
Colinas sagte, dass Schüler im Mathematikunterricht mit der Photomath-App schummeln. Photomath wurde 2014 erstmals veröffentlicht und bietet nicht nur die Antwort auf Probleme, sondern auch die Arbeit dahinter. Lehrer können KI-gestützte Arbeit nicht nachweisen, sagte Colinas.
Colinas sagte, dass sie bei ihren Hausaufgaben nicht schummelt. Sie will die Praxis. Mit Mathematik kann man zu leicht ins Hintertreffen geraten. Ende Januar wurde ihre Arbeit mit einer Eins belohnt.
Aber eine Freundin von ihr hat es das ganze Jahr über benutzt. Nachdem er bei den Hausaufgaben nur perfekte Ergebnisse erzielt hatte, war der Lehrer überrascht, als er sah, dass sein Freund den Abschlusstest nicht bestanden hatte, so Colinas.
„Meine Freundin“, sagte Colinas, „sie hat dieses Jahr nichts in Mathematik gelernt. Sie hat gerade die Antworten bekommen.“
Aber die Prüfung machte nur 10 % der Note aus. Also bekam ihre Freundin eine Zwei.
„Was es nicht kann“
Derzeit funktioniert Software wie Photomath nur gut mit Algebra, sagte Chris Killingstad, Mathematikprofessor am Community College. Sein Unterricht konzentriert sich auf Analysis.
„Auf der Ebene der Infinitesimalrechnung gibt es einen Punkt, an dem es nicht mehr so gut funktioniert“, sagte er. „Und die Studenten haben das herausgefunden.“
In einigen Tests lässt er Computer zu. Das verwirrt die Schüler. Aber Killingstad sagt, dass sie den Lehrplan noch verstehen müssen.
„Sie erkennen: ‚Ja, das wird mich nicht retten'“, sagte er.
Und manchmal geben Programme die falsche Antwort.
Dennoch glaubt er, dass KI unausweichlich sein wird.
„Ich denke jedoch, dass es für sie gut ist, hineinzugehen und ihm einfach zu begegnen und zu sehen, was er kann und was nicht“, sagte er. „Irgendwann müssen wir anfangen, diesem System zu vertrauen.“
Aber das manuelle Lösen von Problemen sei immer noch Teil des Lernprozesses, fügte er hinzu.
Anusha Venkatachalam unterrichtet Ingenieurwissenschaften und Informatik. „In der Technik geht es darum, Probleme zu lösen, was Programme einfach nicht leisten können“, sagte sie.
Beim Programmieren ist es schwieriger.
Ein paar Mal haben Schüler Aufgaben eingereicht, die sich vom Rest der Klasse unterscheiden, aber einander sehr ähnlich sind – genug für einen Verdacht, aber keinen Beweis.
„Es fühlt sich seelenlos an“
Riley Fraser, der Journalistiklehrer von Colinas, unterrichtet außerdem Englisch, Reden und Debatten an der Cavelero Mid High.
Seit Jahresbeginn hat Fraser mehr als ein halbes Dutzend Mal Schüler beim Einsatz generativer künstlicher Intelligenz erwischt.
Manchmal ist ihm aufgefallen, dass Studierende der KI zu sehr vertrauen und Aufsätze einreichen, die nichts mit der Aufgabenaufforderung zu tun haben.
Er nennt es eine „neue Falte im Gespräch über akademische Ehrlichkeit“.
Fraser sagte, Betrug könne ein Zeichen für mangelndes Selbstvertrauen sein. Wenn Schüler damit konfrontiert werden, geben sie es oft zu und erklären, wie gestresst sie waren.
„Meistens war der Text, den sie mir bereits gezeigt haben, völlig in Ordnung“, sagte er.
Fraser sagte, er kenne seine Schüler gut genug, um zu erkennen, wenn die abgegebene Arbeit nicht ihnen gehört.
„Es fühlt sich seelenlos an, es fühlt sich so sehr nach Zahlen und sehr spezifisch an“, sagte er. „In der Sekunde, in der man es liest, hat man einfach das Gefühl – das fühlt sich einfach nicht wie etwas an, das ein Mensch geschrieben hat.“
Anstatt Software mit Software zu bekämpfen, glaubt er daran, Beziehungen zu Schülern aufzubauen, um Betrug zu verhindern.
„Sie müssen eine starke Beziehung zu Ihren Schülern haben, um sicherzustellen, dass sie wissen, dass Ihnen nicht nur ihre Leistung, sondern auch sie als Menschen am Herzen liegen“, sagte er.
Aina de Lapparent Alvarez: 425-339-3449; [email protected]; Twitter: @Ainadla.