[ad_1]
Der Aufstieg generativer künstlicher Intelligenztools wie chatgpt veranlasst viele Pädagogen, die Rolle der Technologie im Klassenzimmer neu zu überdenken.
An der University of Toronto, Susan McCahanVizeprovost, akademische Programme und Vizeprovost, Innovationen in der Grundausbildung, standen bei der Reaktion auf diese sich schnell entwickelnde Technologie an vorderster Front.
McCahan, Professor für Maschinenbau und Wirtschaftsingenieurwesen an der Fakultät für Angewandte Wissenschaft und Ingenieurwesen, sagt, dass die Verbreitung generativer KI-Tools sowohl Chancen als auch Herausforderungen für die Hochschulbildung mit sich bringt.
Ihr Büro unterstützt Projekte zu den Anwendungen generativer KI im Lehren und Lernen Und Bereitstellung von Anleitungen, um Ausbildern den Umgang mit dieser neuen Technologie zu erleichtern.
Sie hat kürzlich mit gesprochen U of T-Nachrichten über die Lehren, die über die akademischen Implikationen der generativen KI gezogen wurden, und über die großen Fragen, die noch offen sind.
Welche Auswirkungen hat generative KI auf das Lehren und Lernen?
Große Sprachmodelle haben erhebliche Auswirkungen darauf, wie wir Programmieren und Schreiben lehren, da sie die Art und Weise verändern, wie Menschen programmieren und schreiben – insbesondere, wenn es um Routineaufgaben geht.
Vieles, was ich an einem Tag schreibe, ist nicht zutiefst intellektuell. Es ist die Art des Schreibens, die LLMs ziemlich gut beherrschen. Aufgrund meines Wissens und Verständnisses auf dem Gebiet und meiner eigenen einzigartigen Perspektive wird es jedoch wahrscheinlich nicht so gut schreiben wie ich, wenn ich eine wissenschaftliche Arbeit schreibe.
Derzeit eignet sich die Technologie recht gut zum Schreiben auf dem Niveau eines Studenten im ersten oder zweiten Jahr, aber sie entspricht nicht dem, was man von einem Studenten im dritten oder vierten Jahr erwarten würde.
Die größte Herausforderung besteht darin, sicherzustellen, dass die Schüler immer noch das dritte oder vierte Jahr erreichen, wenn sie in ihren ersten Jahren an der Universität – oder sogar an der Ober- oder Mittelschule – Abkürzungen nehmen.
Die Leute haben dies mit einem Taschenrechner verglichen, aber ich glaube nicht, dass das die richtige Analogie ist, da ein Taschenrechner ein sehr domänenspezifisches Werkzeug ist und generative KI viel umfassendere Anwendungen hat.
In den 1980er Jahren kam es zu einer existenziellen Krise im Mathematikunterricht, als Taschenrechner auf den Markt kamen, die zur symbolischen Manipulation fähig waren. Pädagogen fragten sich, ob wir unseren Schülern beibringen sollten, Differentiale und Integrale zu berechnen, wenn diese Programme diese komplexen Gleichungen lösen können. Doch wir haben das überstanden und bringen den Schülern immer noch bei, wie man addiert und subtrahiert, multipliziert und dividiert, Differentiale und Integrale berechnet. Wir bringen den Schülern auch bei, wie sie diese symbolischen Manipulationsprogramme auf eine Weise nutzen können, die es ihnen ermöglicht, tiefer zu gehen, als wenn sie alles von Hand machen würden.
Ich denke, wir werden an einem Punkt angelangt sein, an dem die Menschen erkennen, wann es sinnvoll ist, KI zur Unterstützung einzusetzen, und wann nicht sehr hilfreich sein wird. Wir hoffen, dass wir an einem Punkt ankommen, an dem die Leute schneller mit den Grundlagen vorankommen und zu komplexeren Schreib- und Codierungsaufgaben übergehen können.
Betrachtet die U of T den Einsatz generativer KI-Tools als Betrug?
Wir erwarten von den Studierenden, dass sie einzelne Aufgaben selbstständig bearbeiten. Wenn ein Dozent beschließt, die Verwendung generativer KI-Tools ausdrücklich einzuschränken, würde deren Verwendung als „unerlaubte Hilfsmittel“ im Sinne der Verordnung gelten Verhaltenskodex in akademischen Angelegenheiten. Dies gilt als akademisches Vergehen und wird als solches behandelt.
Manche fragen sich vielleicht, warum wir das nicht als Plagiat einstufen. Eines der größten Missverständnisse der Menschen besteht darin, dass LLMs das, was im Internet verfügbar ist, den Text und die Ideen zusammenfügen und sie als Zusammenstellung neu verpacken. Allerdings funktioniert die Technologie nicht so.
Tools wie ChatGPT werden anhand großer Mengen an Online-Materialien trainiert, um Sprachmuster zu erkennen und Vorhersagen darüber zu treffen, welche Wörter am wahrscheinlichsten zusammenpassen. Wenn ich „eins, zwei, drei“ sage, weiß es, dass wahrscheinlich als nächstes „vier“ kommt. Es weiß, dass „vier“ ein Substantiv ist, bringt das Konzept jedoch nicht mit einem Quadrat oder den Reitern der Apokalypse in Verbindung.
Wenn Sie in ChatGPT eine Eingabeaufforderung eingeben, geht es nicht darum, Informationen zu durchsuchen, um Sätze, Absätze oder Ideen zu erstellen – es werden Wort-für-Wort-Vorhersagen erstellt, die Sprachmuster rund um ein Thema imitieren. Aus diesem Grund betrachten wir die Verwendung dieser Tools nicht als Plagiat. Wir behandeln es als unerlaubte Hilfe.
Welche Ressourcen stehen zur Verfügung, um Lehrkräfte bei der Anpassung an diese neue Technologie zu unterstützen? Gibt es Best Practices, die sie befolgen sollten?
Wir haben eine zusammengestellt FAQ Wir gehen auf einige Überlegungen zur generativen KI ein und stellen den Dozenten gleichzeitig Ressourcen zur Verfügung, die ihnen dabei helfen, zu kommunizieren, welche Technologie in ihren Kursen erlaubt ist – und welche nicht.
Ich denke, wir befinden uns in einem Moment, in dem es für Lehrkräfte wirklich wichtig ist, in ihren Lehrplänen klar zu sagen, ob sie dies ausdrücklich zulassen oder ausdrücklich nicht. Wenn dies zulässig ist, sollte klar sein, wie KI-Tools für welche Aufgaben und in welchem Umfang eingesetzt werden können und ob Studierende erklären, dokumentieren oder zitieren müssen, welche Tools sie wie verwenden.
Das ist neu, und sowohl Lehrkräfte als auch Studierende sind sich nicht ganz im Klaren darüber, ob dies die nächste Wikipedia der Welt sein wird – wo jeder sie nutzt, aber niemand mehr darüber spricht. Oder ob es nie verwendet werden sollte, weil es einfach unzuverlässig ist.
Welche weiteren Überlegungen gibt es zum Einsatz generativer KI im akademischen Kontext?
LLMs machen oft etwas falsch – und zwar sehr sicher falsch. Im Januar habe ich beispielsweise ChatGPT nach meiner Biografie gefragt. Mir wurde gesagt, dass ich an der University of British Columbia gearbeitet hatte und ein führender Forscher auf dem Gebiet der biomedizinischen Technik war – Dinge, die glaubwürdig erscheinen, aber sachlich unwahr sind. Die Technologie hat sich seitdem verbessert, aber LLMs machen immer noch Fehler auf eine Weise, die nicht sofort erkennbar oder offensichtlich ist. Diese werden „Halluzinationen“ genannt und können so subtil sein, dass sie nur schwer zu erkennen sind, wenn man sich wirklich mit dem Thema auskennt.
Letztendlich ist der Student für das von ihm eingereichte Material verantwortlich, und wenn er Material einreicht, das sachlich falsch ist, ist er dafür verantwortlich. Sie können dem Chatbot keine Vorwürfe machen, genauso wie der Chatbot keine Anerkennung annehmen kann. Es ist nicht wie bei einem Teamprojekt, bei dem man mit einem anderen Studenten arbeitet und man sagen kann: „Das war nicht ich, sondern mein Partner.“ Wenn Ihr Partner KI ist, sind Sie für die gesamte von Ihnen eingereichte Arbeit verantwortlich, unabhängig davon, ob es Teile gibt, die gemeinsam mit KI erstellt wurden oder nicht.
[ad_2]