Als Reaktion auf den kometenhaften Aufstieg von chatgpt veröffentlichte die Harvard-Fakultät für Künste und Wissenschaften im Sommer ihre ersten Leitlinien zum Einsatz generativer KI in Kursen. In diesen Richtlinien rät die FAS den Lehrkräften, den Schülern explizit KI-Richtlinien zu vermitteln, und bietet drei mögliche Ansätze an, die von völliger Einschränkung bis hin zu völliger Zulassung reichen.

Wenn man bedenkt, dass die meisten von uns noch vor einem Jahr noch nicht einmal von ChatGPT gehört hatten, sind diese neuen Richtlinien dringend erforderlich – und nach Ansicht unserer Redaktion gut auf die aktuelle Situation zugeschnitten. Wir loben insbesondere den Laissez-faire-Ansatz der Universität in Bezug auf die generative KI-Regulierung, bei dem die meisten Entscheidungen über deren Einsatz im Ermessen der einzelnen Lehrenden liegen.

Wie dieses Gremium erkannt hat, führt KI nirgendwohin; Die öffentlichen Leitlinien von Harvard für den Einsatz generativer KI berücksichtigen diese Tatsache und lassen den Professoren gleichzeitig die Autonomie zu entscheiden, ob und wie sie diese Technologie in ihren Kursen einsetzen. Dieser Spielraum wiederum ermöglicht es den verschiedenen Abteilungen und Kursen in Harvard, generative KI-Richtlinien an ihre jeweilige Lernumgebung anzupassen. (Wir würden wetten, dass die beste KI-Pädagogik für Chem 245: Quantenchemie nicht gut für Geisteswissenschaften 10: Ein geisteswissenschaftliches Kolloquium geeignet wäre.)

Generell unterstützen wir es, schwierige ethische Fragen, insbesondere zur Pädagogik, den klugen, qualifizierten Studierenden und Lehrenden auf diesem Campus zu überlassen. Diese Entscheidungen den Menschen zu überlassen, die sie am unmittelbarsten betreffen – und nicht entfernten Bürokraten des Smith Centers –, schafft Vertrauen, sorgt für Zustimmung und ermöglicht eine rückkopplungsorientierte Iteration.

Siehe auch  Microsoft bringt ChatGPT mit Bing auf den Startbildschirm von iPhones

Harvard hat den Dozenten die Wahl gelassen – jetzt liegt es an ihnen, eine gute Wahl zu treffen. Wir hoffen, dass die Lehrkräfte die pädagogischen Ressourcen der Harvard University zum Thema generative KI nutzen, beispielsweise die des Derek Bok Center for Teaching and Learning, und sich kritisch mit Nachrichten und Forschungsergebnissen zu dieser neuen Technologie auseinandersetzen.

Die Erörterung pädagogischer Entscheidungen sollte jedoch nicht die Aufmerksamkeit von den wichtigsten Entscheidungen ablenken: den Entscheidungen, die Studierende tagein, tagaus treffen werden, darüber, ob und wie sie die Kursrichtlinien befolgen sollen.

In Wahrheit können kluge Schüler generative KI nutzen, ohne erwischt zu werden. KI-Erkennungssoftware ist derzeit nicht zuverlässig und die FAS rät Professoren davon ab, sie zu verwenden. Während generative KI den Schülern die Möglichkeit bietet, ihre Produktivität und Kreativität zu steigern, bietet sie den Schülern bei weniger gewissenhaftem Einsatz eine Möglichkeit, den fähigkeitsaufbauenden Charakter ihrer Aufgaben zu umgehen.

Als Gremium, das die Bedeutung des Schreibens für das kritische Denken vertritt, glauben wir daran, die Rolle der KI im Schreibprozess einzuschränken. Darüber hinaus sollten die Schüler bedenken, dass KI nicht ausfallsicher ist: Sie kann Ereignisse halluzinieren, die nicht stattgefunden haben, und enthält Vorurteile, die aus den menschlichen Daten, auf denen sie trainiert, übernommen werden.

Nichtsdestotrotz gibt es eine Reihe wirklich fähigkeitssteigernder Zwecke für generative KI, wie z. B. die Verwendung zur Unterscheidung zwischen scheinbaren Synonymen in einer Fremdsprache, zum Verständnis von Softwarecode und zur Zusammenfassung schwieriger, intuitiver Konzepte in der beweisbasierten Mathematik.

Letztlich wird die generative KI bestehen bleiben, und wir loben Harvards Ansatz zur Bewältigung dieser Realität. Von flexiblen Richtlinien für den Einsatz im Unterricht über ein „KI-Sandbox“-Tool, das es Partnern ermöglicht, mit generativer KI zu experimentieren, ohne sich Gedanken über die Vertraulichkeit der von ihnen eingegebenen Daten machen zu müssen, bis hin zu GENED-Angeboten, die es Schülern ermöglichen, ihr Wissen in diesem dynamischen Bereich zu erweitern , maximieren Harvards aktuelle Bemühungen die Leistungsfähigkeit und das Potenzial einer Sache, die generative KI nicht beeinträchtigen kann: die Wahlmöglichkeiten der Benutzer.

Siehe auch  Die 7 P's für Wohlstand an einem Arbeitsplatz mit ChatGPT-Unterstützung

Aber so wie Harvard den Dozenten die Möglichkeit gegeben hat, den Grad der KI-Integration in ihre Kurse zu wählen, müssen wir diese Wahl auch in unserem eigenen Leben kritisch reflektieren. Da generative KI in Harvard immer präsenter wird, sollten wir als Studenten bedenken: Pädagogik ist wichtig, aber letztendlich liegt es an uns, was wir lernen – und wie.

Dieser Leitartikel gibt ausschließlich die Mehrheitsmeinung des Redaktionsausschusses von The Crimson wieder. Es ist das Ergebnis von Diskussionen bei regelmäßigen Redaktionssitzungen. Um die Unparteilichkeit unseres Journalismus zu gewährleisten, sind Crimson-Redakteure, die bei diesen Treffen ihre Meinung äußern und abstimmen, nicht an der Berichterstattung über Artikel zu ähnlichen Themen beteiligt.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein