Die bewerteten Aufsätze enthüllten eine verblüffende Realität: chatgpt konnte Harvard-Kurse bestehen.
„Es hat einen Notendurchschnitt von 3,34, hauptsächlich As und B, ein C“, sagte Bodnick in einem Interview. „Das ist kein toller Notendurchschnitt für Harvard, aber er liegt weit über einer bestandenen Note.“
Das Experiment offenbart eine große Herausforderung für Pädagogen, die mit der rasanten Einführung eines Tools Schritt halten müssen, das schwer zu erkennen ist und in der Lage ist, Prosa auf Hochschulniveau zu verfassen. Professoren konfigurieren jetzt Kursaufgaben neu und erstellen Richtlinien für Studenten, wann und wie sie ChatGPT verwenden können und wann die Grenze zum Betrug überschritten wird. Bodnicks Experimentunterstreicht auch die Bedrohung, die künstliche Intelligenz darstellt Dutzende Einstiegsjobs in Beratung, Bankwesen, Journalismus und Software-Engineering, auf die sich Absolventen erstklassiger Schulen vorbereitet und die sie in der Vergangenheit mit Leichtigkeit erlernt haben.
„Immer intelligentere KI-Tools treffen unsere Universitäten wie ein Tsunami“, sagte Max Tegmark, Professor für künstliche Intelligenz am MIT. „Unsere größte Herausforderung besteht nicht darin, unsere Studenten auf die Probe zu stellen, sondern herauszufinden, welche Fähigkeiten wir ihnen beibringen können, die zum Zeitpunkt ihres Abschlusses noch wirtschaftlich wertvoll sind.“
Künstliche Intelligenz „wirft grundlegende und existenzielle Fragen darüber auf, wie eine Ausbildung aussieht“, sagte Paul LeBlanc, Präsident der Southern New Hampshire University. LeBlanc sagte, ein großer Einzelhändler habe ihm kürzlich mitgeteilt, dass sie keine Software-Ingenieure mehr einstellen und stattdessen auf künstliche Intelligenz setzen würdenCode schneller zu produzieren, als Menschen es könnten. Dennoch sieht LeBlanc die drohende Störung als Chance, den, wie er es nennt, „menschenzentrierten Berufen“, darunter Lehrer, Berater, Sozialarbeiter und Gesundheitsfachkräfte, neue Prioritäten zu setzen.
„Wir bezahlen einfach nicht gern [these jobs] in Amerika“, sagte LeBlanc, Er fügte hinzu, dass das Land sein psychisches Gesundheitssystem neu aufbauen, sein Strafjustizsystem verbessern und eine robuste Struktur für die Altenpflege schaffen müsse. „Eine der schmerzhaften Übergänge, die wir durchmachen werden, wenn Wissensarbeit verdrängt wird [by artificial intelligence] ist, zu überdenken, was wir bezahlen und wie wir bezahlen [jobs to] riesige, kaputte Sozialsysteme in Amerika reparieren.“
In Harvard studiert Bodnick Staatswissenschaften und hat in der Publikation über das Experiment geschrieben Langsames VerbrennenSie ist besorgt über die Verbreitung von Betrug bei der Verwendung von ChatGPT, sagte jedoch, sie sei sich darüber im Klaren, dass Universitäten lernen müssen, mit der Technologie zu arbeiten.
„KI wird in der realen Welt einfach existieren und man kann Unternehmen nicht daran hindern, sie zur Automatisierung von Jobs zu nutzen“, sagte Bodnick. „Es bringt einen auf jeden Fall dazu, zu überdenken, was wir an der Uni machen … Man möchte wirklich in der Lage sein, viele Dinge, die man lernt, anzuwenden, daher frage ich mich, ob sich die Pädagogik stark verändern wird.“
Während Harvard sich auf das kommende Semester vorbereitet, teilte Amanda Claybaugh, Dekanin für Bachelor-Ausbildung bei Harvard, am Mittwoch den Lehrkräften Ratschläge zur generativen künstlichen Intelligenz im Klassenzimmer und erinnerte sie auch daran, eine Unterrichtsrichtlinie für die von ChatGPT geleistete Arbeit zu verabschieden.
Adriana Gutiérrez, eine leitende Dozentin an der Harvard-Universität, sagte in einem Interview, dass sie im vergangenen Semester die Notwendigkeit einer klar formulierten Richtlinie zur Nutzung durch Studierende erkannt habe. Gutiérrez sagte, sie schätze es, dass die Universität es den Dozenten überlasse, zu bestimmen, wie sie die für jede Klasse erforderlichen Richtlinien formulieren. Gutiérrez will in ihren Lehrplänen erklären, dass Schüler „in der Lage sein werden, Sprachlernmodelle für Brainstorming, Inspiration und sogar für Skizzen zu verwenden“.
Gutiérrez sagte, die Schüler müssten angemessen würdigen, wie sie KI in ihrer Arbeit eingesetzt hätten, dürften sie jedoch nicht zum Bearbeiten, Übersetzen oder Schreiben eines Aufsatzes verwenden.Sie fügte hinzu, dass sie in ihren kleinen Spanischkursen den Vorteil hat, den Schreibstil sowie die Stärken und Schwächen jedes Schülers kennenzulernen, was es einfacher macht, zu erkennen, wann ChatGPT verwendet wird, insbesondere wenn die Arbeit des Schülers plötzlich „Übergänge und Vokabeln“ verwendet [they] konnte unmöglich“ wissen. Gutiérrez möchte den Schülern betonen, dass der Prozess des Schreibens der wichtigste Teil ihres Unterrichts ist.
„Es geht nicht nur um das Schreiben um des Schreibens willen“, sagte Gutiérrez. Die Aufgaben sollen den Studierenden helfen, „ihre Ideen zu ordnen und Verbindungen zu den von uns besprochenen Themen herzustellen, um eine wirklich kreative, interessante Arbeit zu erstellen.“
Einige Professoren ändern ihre Kurszuweisungen als Reaktion auf das Aufkommen von ChatGPT auf dem Campus. Wirtschaftsprofessor Jason Furman twitterte als Reaktion auf Bodnicks Experiment, dass er vorhabe, „den Aufsatz fallen zu lassen“. [in Harvard’s introductory economics courses] im kommenden Jahr, zum Teil, weil ChatGPT den marginalen Nettonutzen, der sich aus dem Aufsatz ergibt, reduziert hat.“
In einem Interview sagte Furman, dass er und sein Co-Lehrer Möglichkeiten zum Überarbeiten erarbeitet hättendie Aufforderung zum Aufsatz,Dazu gehört auch, dass ChatGPT einen Aufsatz schreibt und die Schüler dann bittet, eine Kritik des Aufsatzes zu verfassen. Aber Furman „hat ChatGPT gebeten, einen Aufsatz und eine Kritik zu schreiben, und auch das hat es großartig gemacht.“
„In meinem Kurs [the essay] „Es war schön, es zu haben, war aber nicht von zentraler Bedeutung für das, was wir zu lehren versuchen. Deshalb haben wir beschlossen, dass die Kosten den Nutzen überwiegen“, sagte Furman.
Harvard kündigte an, im nächsten Monat Informationsveranstaltungen abzuhalten, um Professoren dabei zu helfen, ihre Aufgaben „KI-sicher“ zu machen.
„Wir können noch nicht sicher sein, welche Auswirkungen diese haben werden, da sich diese Technologien rasch weiterentwickeln, ebenso wie unser Verständnis der Möglichkeiten, die sie bieten, und der Herausforderungen, die sie mit sich bringen“, schrieb Claybaugh.
Hilary Burns ist unter [email protected] erreichbar. Folgen Sie ihr auf Twitter @Hilarysburns.