Professor Pramod Viswanath, Professor für Elektrotechnik und Informationstechnik, nennt seine Kreation „Blockie“. Es handelt sich um einen Lehrassistenten für künstliche Intelligenz, der mit Vorlesungen und Notizen aus seinem fortgeschrittenen Ingenieurkurs gefüttert wird.
„Blockie ist nur chatgpt auf Steroiden“, sagte Viswanath gegenüber The Daily Princetonian.
Während einige Princeton-Professoren KI-Tools verboten haben, hebt Viswanaths Programm deren pädagogisches Potenzial im Klassenzimmer hervor.
Seit der Veröffentlichung von ChatGPT im vergangenen Herbst sorgen Large Language Models (LLMs) für Diskussionen im gesamten Hochschulbereich. ChatGPT, die Abkürzung für Chat Generative Pre-trained Transformer, ist ein LLM, der weitgehend auf einem riesigen Datenspeicher aus allen Ecken des Internets basiert, um sich selbst beizubringen, wie man Nachrichten erstellt, die menschlichen Text und Sprache widerspiegeln. Durch probabilistische Vorhersagen darüber, welche Texte oder Informationen zusammengehören, kann ChatGPT Codezeilen, Textzusammenfassungen und Aufsätze schreiben sowie mathematische Probleme lösen.
Im Januar 2023, inmitten der anhaltenden Begeisterung über das Potenzial von ChatGPT, schickten das Dekanat des College und das Dekanat der Graduate School in Princeton ein Memo an alle Lehrkräfte, in dem sie die Flexibilität der Universität in Bezug auf KI-Tools hervorhoben. Das Memo mit dem Titel „AI & ChatGPT Guidance for Teaching“ lieferte Anleitungen für den Umgang mit dieser Technologie im Klassenzimmer und ging auf die Bekanntheit von ChatGPT in den Medien ein.
„Trotz des ausgiebigen Händeringens in den Medien und anderswo über diesen Chatbot und seine Auswirkungen auf die Hochschulbildung sind wir und unsere Kollegen am College und an der Graduiertenschule weiterhin zuversichtlich, dass unsere Bachelor-Studiengänge im Bereich Geisteswissenschaften und Graduiertenausbildung lebendig, lebendig und lebendig bleiben werden.“ in den kommenden Jahren nützlich sein“, heißt es in der Erklärung.
In dem Memo heißt es, dass jedes Fakultätsmitglied hinsichtlich der Nutzung von ChatGPT freie Hand hat, es jedoch die ausdrücklichen Regeln zur akademischen Integrität und die Richtlinien zur Zusammenarbeit im Rahmen des Ehrenkodex und der akademischen Vorschriften der Universität berücksichtigen sollte.
Kurz nachdem das Memo geschrieben wurde, fragte der „Prinz“ Professoren nach ihren ersten Reaktionen auf ChatGPT. Während die Fakultät unterschiedliche Ansichten zur neuartigen KI vertrat, herrschte allgemeiner Konsens darüber, dass die Technologie selbst sehr begrenzt ist und „Texte produziert, die zunächst überzeugend erscheinen, aber letztendlich Quatsch sind“, wie Matt Weinberg, Assistenzprofessor für Informatik, es ausdrückte.
In einigen Klassenzimmern ist die Technologie verboten. Beispielsweise ist es Studenten weitgehend untersagt, es in einem der größten Einführungskurse in die Informatik in Princeton, COS126: An Interdisciplinary Approach, zu verwenden.
„Die Schüler von COS126 lernen, logarithmisch zu denken. Es ist wichtig, dass sie diese Grundkonzepte selbst erlernen“, sagte Sebastian Caldas, neuer Dozent für COS126. „Wenn sie dieses Tool von Anfang an verwenden, könnten sie möglicherweise nicht so viel bauen, wie sie könnten, wenn sie wüssten, was vor sich geht.“
Gemäß der im Lehrplan enthaltenen Richtlinie zur Zusammenarbeit erlaubt Princetons Einführungskurs in die Informatik die Verwendung von KI und ChatGPT nur zum „Besprechen von Konzepten“, und die Studierenden müssen „die Zusammenarbeit anerkennen“. Es ist strengstens untersagt, KI-Chatbots „Ihren Code/Ihre Lösungen zu zeigen“, „Code/Lösungen von ihnen anzuzeigen“ oder „Code/Lösungen von ihnen zu kopieren“.
Obwohl Caldas davon überzeugt ist, dass der Einsatz von Chatbots in einem Einführungskurs wie COS 126 schädlich für das Lernen der Studierenden sein kann; Er hofft, dass die aufstrebende Generation von Informatikern, die er unterrichtet, zu ChatGPT zurückkehren und dazu beitragen wird, es effizienter zu machen.
„Mit dieser Technologie kann man so viel machen, und dafür muss man lernen, wie man programmiert“, sagte Caldas. „Ich will [my students] ChatGPT zu erlernen, damit sie die nächste Generation von ChatGPT und bessere Arten von Tools entwickeln können.“
David Malan, Professor des COS 126-Äquivalents in Harvard, hat einen völlig anderen Ansatz in Bezug auf Chatbots gewählt. Entsprechend Berichterstattung vom Harvard Crimson hat er einen KI-Chatbot ähnlich wie ChatGPT entwickelt, der „Bugs finden kann“. [student] Sie können programmieren, Feedback zum Design von Studentenprogrammen geben, unbekannte Codezeilen oder Fehlermeldungen erklären und individuelle Fragen beantworten“, was der Rolle eines menschlichen Lehrassistenten ähnelt.
Der Harvard-KI-Assistent inspirierte Viswanath und seine Lehrassistentin Tianle Cai zur Entwicklung von Blockie, einem ähnlichen Programm für ECE 470: Principles of Blockchains. Der Aufbaukurs vermittelt das grundlegende Design und die algorithmischen Prinzipien von Blockchains, einer technischen Datenbank, die den sicheren Austausch von Informationen wie Daten und Finanztransaktionen ermöglicht.
Viswanath und Cai versorgten ChatGPT mit allen Vorlesungen und Aufgaben des Kurses, um einen KI-Lehrassistenten zu erstellen, der auf Studierende zugeschnitten ist, die ECE 470 absolvieren.
Cai erklärt, dass ChatGPT zwar problemlos Fragen beantworten oder Aufgaben für Einführungskurse in Informatik und Programmierung erledigen kann, es jedoch nicht ausgereift genug ist, um bei fortgeschrittenen Kursen wie ECE 470, in dem eine neuartige Programmiersprache namens Rust gelehrt wird, zuverlässig Hilfe bereitzustellen.
„Das Hauptproblem von ChatGPT besteht darin, dass es mit unserer Klasse nicht vertraut ist“, sagte Cai. „Das Material und die Logistik dieses Kurses sind nicht im Wissen von ChatGPT enthalten.“
„[In office hours] „Studenten stellen Fragen, die nicht schwer zu beantworten sind, aber ihnen fehlen einfach die Ressourcen, um die Antwort zu finden“, fügte er hinzu.
Viswanath verglich die Probleme, die Schüler mit dieser „fremden“ Programmiersprache hatten, damit, dass sie bei der Grundrechenart stecken blieben, wenn sie versuchten, komplizierte Mathematik zu lernen.
„Man bleibt bei der Arithmetik auf niedrigerem Niveau hängen; Man kann weder addieren noch multiplizieren“, erklärte er. „Dann kann man die großen Muster nicht erkennen, man kann nicht eine Ebene höher gehen.“
Blockie hat ECE 470-Studenten eine personalisierte Ressource zur Überwindung logistischer Hürden bei ihren Programmieraufgaben zur Verfügung gestellt: Es unterstützt die menschlichen TAs erheblich durch die Vereinfachung der Bürozeiten.
„Kaum jemand erscheint mehr während der Bürozeiten, und wann immer er auftaucht, stellt er sehr konkrete, gute Fragen anstelle von Syntaxfragen“, bemerkte Viswanath.
Während Viswanath und Cai die Integration von KI und Chatbots in den Unterricht nachdrücklich befürworten, erklärten sie, dass die Technologie am nützlichsten sei, wenn die Schüler bereits über Hintergrundkenntnisse in der Programmierung verfügen.
„Sobald Sie über das Grundwissen verfügen, können Sie selbst entscheiden, ob [ChatGPT’s] „Die Antworten sind logisch korrekt“, sagte Cai.
Die Teilnehmer des Kurses haben ihre Zustimmung zu Cais Einschätzung von Blockie zum Ausdruck gebracht – es kann zu Effizienz und Produktivität beitragen, aber nur insoweit, als der Student die Genauigkeit von Blockie anhand seines eigenen Wissens sicher beurteilen kann.
„Das beste Ding [Blockie] „Das hat mir geholfen: Wenn ich ein Problem in mehrere kleine Teile zerlege und ihm eine kleine Aufgabe gebe, wird es viel effizienter, weil ich einfach den Code aus der kleinen Aufgabe kopiere und ihn in meine kopiere“, sagte er Jonathan Jeong ’25. „Ansonsten muss man noch wissen, was man tut, damit es hilfreich ist.“
Joy Patterson ’25, eine weitere Studentin des Kurses, sagte, dass Blockie für das Erlernen der Programmiersprache Rust „von unschätzbarem Wert“ gewesen sei, dass es jedoch effizientere LLMs gebe.
„Wir neigen dazu, zu verwenden [GPT-4] gegenüber Blockie, weil GPT-4 sehr schnell ist, während Blockie eine Weile braucht, um Feedback zu generieren“, sagte Patterson. „Blockie ist immer noch ein superspaßiges Tool und es war spannend, es auszuprobieren.“
Obwohl Patterson einige der Einschränkungen von Blockie als neuartiges KI-Unterrichtstool erkennt, sieht er in Blockie einen spannenden Schritt zur Integration von KI in den Unterricht.
„Ich denke, da LLMs immer leistungsfähiger werden, werden sie einen größeren Teil der Arbeitsabläufe einnehmen – insbesondere in der Informatik“, sagte Patterson. „Teil einer Klasse zu sein, die sich für LLMs einsetzt, hat das Gefühl, wir blicken in die Zukunft und erkunden, wie Informatik-Unterrichtsräume in den kommenden Jahren aussehen könnten.“
Während mit der wachsenden Beliebtheit von ChatGPT Bedenken hinsichtlich der akademischen Integrität und des Betrugs aufgekommen sind, sieht Viswanath darin eine Chance für Verbesserungen und Veränderungen in der akademischen Welt.
„Manche Leute befürchten, dass Kinder Abkürzungen finden, aber ich bin mir sicher, dass dies vor zwei Dutzend Jahren der Fall war [pre-ChatGPT]„Jemand hat sich darüber beschwert“, sagte Viswanath. „Ich denke, ChatGPT ist eine Gelegenheit für Pädagogen, ihre Bewertungsmethoden neu zu bewerten. Wenn Studierende Abkürzungen nehmen, sollten wir vielleicht die Bewertungsmethoden neu bewerten.“
Als einer der ersten KI-Lehrassistenten in Princeton hat Blockie noch einen langen Weg vor sich, aber Cai hofft, seinen Nutzen auf weitere Kurse auszuweiten.
„Wir untersuchen einige Interaktionen, um es allgemeiner zu gestalten – damit es problemlos in andere Klassen sowie Plattformen wie Canvas integriert werden kann – damit jeder Professor einen KI-Lehrassistenten erstellen kann.“[s] für ihre Klasse mit nur einem Klick“, erklärte Cai.
Viswanath glaubt, dass KI als pädagogisches Werkzeug mittlerweile einen festen Platz in der Wissenschaft hat. Er hofft, Teil dieser aufregenden neuen Zukunft im Bildungswesen zu sein.
„Glauben Sie mir, es wird nur sehr wenige Klassen geben, die diesem Trend entkommen werden“, sagte Viswanath. „Jede Klasse muss einen KI-Assistenten haben, das gebe ich gerne zu Protokoll.“
„Das passiert, daran besteht kein Zweifel“, fuhr er fort. „Ich möchte ein Teil davon sein.“
Während Viswanath und Cai in das Potenzial von ChatGPT für Ingenieurwesen und Informatik investieren, bauen die Sozialwissenschaften in Princeton auch KI in den Unterricht ein.
„Ich freue mich für [my students] „jede Art von KI-System zu nutzen“, sagte Jacob N. Shapiro, Professor für politische und internationale Angelegenheiten und Direktor des Empirical Studies of Conflict Project in Princeton. „Sie werden Teil der Arbeitsumgebung sein, also können Sie sich gleich jetzt daran gewöhnen.“
Eine der Aufgaben in seinem Kurs „POL386: Violent Politics“ besteht darin, dass die Schüler ChatGPT mit der Aufforderung versorgen, eine kurze Antwort zu geben, und die Antworten dann mit den Klassenkameraden austauschen, um sie zu kritisieren und zu bearbeiten.
Indem Shapiro seine Schüler dazu ermutigt, sich mit ChatGPT auseinanderzusetzen – und es sogar als Teil des Kurses verlangt –, hofft er, die Fähigkeiten von ChatGPT im Klassenzimmer zu erkunden.
„Mich interessiert, wie die Leute es nutzen [chatbots]“, sagte Shapiro. „Es gibt viele Möglichkeiten, sie zu nutzen, es ist irgendwie unentdeckt.“
Wie Viswanath und Cai vertraut Shapiro darauf, dass seine Schüler verantwortungsbewusst mit ChatGPT umgehen.
„Ein Teil davon ist das [Princeton students] „Es handelt sich um eine ungewöhnlich begabte und talentierte Gruppe von Studenten“, erklärte Shapiro. „Ich fühle mich wohl, wenn ich eine Grundkompetenz annehme. Wenn es eine neue Technologie oder ein neues Werkzeug gibt, das bestimmte neue Kompetenzen erfordert, warum nicht die Gelegenheit nutzen?“
Shapiro sieht ChatGPT auch als Bildungsmöglichkeit für Schüler, ihr eigenes Urteilsvermögen zu bilden und sich mit KI besser vertraut zu machen.
„Sie müssen die Fähigkeit entwickeln, zu unterscheiden, welche Dinge die KI füttert, kohärent und logisch sind und welche Unsinn, denn die KI wird Ihnen beides bieten“, sagte Shapiro. „Wenn Studenten ins Berufsleben eintreten, wird es eine Reihe von KI-Tools geben, die ihr Unternehmen nutzt. Daher ist die Situation, in der KI etwas Unsinniges hervorbringt, eher ein pädagogischer Moment.“
Seine einzige Regel bei der Verwendung von ChatGPT ist die Angabe als Quelle.
„Wenn der Student das Modell auf ehrliche Weise verwendet und das Modell – aufgrund der Daten, auf denen es trainiert wurde – im Wesentlichen einen früheren Text wiedergibt, handelt es sich nicht um ein absichtliches Plagiat des Studenten“, sagte Shapiro. „Es wird nur dann zum Problem, wenn der Student es nicht zitiert.“
Als Befürworter des Einsatzes von ChatGPT als pädagogisches Instrument freut sich Shapiro über die Flexibilität der Universität, die es Professoren ermöglicht, ihre eigenen Richtlinien in Bezug auf Chatbots festzulegen.
„Ich bin sehr zufrieden mit der Art und Weise, wie die Universität dies angegangen ist, indem sie pädagogische Anwendungen fördert und unsere Rolle dabei spielt, Sie darauf vorzubereiten, diese Dinge zu nutzen, wenn Sie in die Welt hinausgehen.“
Shapiro beschäftigt sich in seiner eigenen Arbeit seit einem Jahrzehnt mit maschinellem Lernen und erkennt die „dramatische, radikale Entwicklung“ dieser Technologien, die sich in hochleistungsfähigen Tools wie ChatGPT manifestiert. Er glaubt, dass seine Rolle als Pädagoge darin besteht, seinen Schülern die Möglichkeit zu geben, den produktiven Umgang mit dieser Technologie zu erlernen.
„Technologie kann eine Gefahr und ein produktives Werkzeug sein“, sagte Shapiro.
„Die Herausforderung besteht darin, es nutzbar zu machen und es für gute Zwecke zu nutzen“, fügte er hinzu. „Sie alle werden besser in der Lage sein, in die Welt hinauszugehen und herauszufinden, wie das geht, wenn Sie Erfahrung mit ihnen haben und Erfahrung damit haben.“ Werkzeuge in Ihrem Arbeitsleben.
Valentina Moreno ist Redakteurin für Features des „Prince“.
Bitte richten Sie etwaige Korrekturwünsche an Korrekturen[at]dailyprincetonian.com.