Kevin Lisle, der seit 23 Jahren Chemie an der Marist School in Atlanta unterrichtet, hat jetzt rund um die Uhr einen Assistenten auf Abruf, der seinen Schülern hilft. Sein neuer Assistent gibt manchmal Fehlinformationen von sich, ist aber gut darin, Konzepte zu erklären und Möglichkeiten vorzuschlagen, die die Schüler möglicherweise übersehen haben.
Kevin Lisle, der seit 23 Jahren Chemie an der Marist School in Atlanta unterrichtet, hat jetzt rund um die Uhr einen Assistenten auf Abruf, der seinen Schülern hilft. Sein neuer Assistent gibt manchmal Fehlinformationen von sich, ist aber gut darin, Konzepte zu erklären und Möglichkeiten vorzuschlagen, die die Schüler möglicherweise übersehen haben.
Lisles Assistent ist besser bekannt als chatgpt – der bekannteste einer neuen Generation von Chatbots mit künstlicher Intelligenz.
Hallo! Sie lesen einen Premium-Artikel
Lisles Assistent ist besser bekannt als ChatGPT – der bekannteste einer neuen Generation von Chatbots mit künstlicher Intelligenz.
Fast ein Jahr nach der Einführung von ChatGPT erkennen Lehrer und Professoren in den gesamten USA, dass sie ein Tool, das viele ihrer Schüler eifrig nutzen, nicht verbieten oder ignorieren können. Für viele verändert ChatGPT die Art und Weise, wie sie ihre Schüler unterrichten und bewerten. Ja, sie befürchten, dass Schüler ChatGPT nutzen, um zu betrügen oder Abstriche zu machen. Dies wird jedoch durch die Hoffnung gemildert, dass es ihnen helfen kann, schneller zu lernen. Und viele Lehrer sagen, dass Schüler zum Einsatz von Bots ermutigt werden sollten, weil Arbeitgeber von ihnen erwarten, dass sie diese Fähigkeit erlernt haben.
„Wir betrachten es nicht als Bedrohung, die blockiert werden muss, sondern als Instrument, das genutzt werden kann“, sagt Kevin Mullally, Direktor von Marist, einer römisch-katholischen Einrichtung, die die Klassen sieben bis zwölf betreut.
„Dürfen wir das tun?“
Als Lisle Ende 2022 zum ersten Mal auf ChatGPT stieß, das von OpenAI produziert wird, „war ich einfach erstaunt darüber, was es leisten konnte“, sagt er. In den ersten sechs Monaten oder so experimentierte er mit dem Bot, tat es aber nicht Er baute es in seinen Chemieunterricht ein. Er bemerkte, dass aktualisierte Versionen weitaus besser waren als das Original.
Als der Unterricht für das laufende Semester wieder aufgenommen wurde, ermutigte er die Studenten, ein ChatGPT-Konto zu eröffnen, falls sie dies noch nicht getan hatten. „Ein Student sagte: ‚Moment mal! Dürfen wir das tun?‘ „Lisle erinnert sich. „Dieser Student hatte das Gefühl, es könnte Betrug sein. Ich sagte, auf keinen Fall, solange Sie meine Erlaubnis haben, es für alles zu verwenden, was wir tun. Ich sage deutlich, wann sie es verwenden sollten und wann nicht.“ ‚T.“
Schüler können ChatGPT nutzen, um bei den Hausaufgaben zu helfen, dürfen es aber nicht bei Prüfungen nutzen. Da das Risiko besteht, dass sich Schüler außerhalb des Klassenzimmers zu stark auf ChatGPT verlassen, legt Lisle bei der Ermittlung der Schülernoten weniger Wert auf Hausaufgaben und mehr Gewicht auf Tests und schulinterne Aktivitäten.
Zu Beginn des Semesters entwarfen seine Studenten Experimente ohne ChatGPT, um zu untersuchen, warum der Verzehr von scharfem Essen Menschen ins Schwitzen bringt. Mehrere Studenten schlugen vor, in regelmäßigen Abständen die Körpertemperatur von Menschen zu messen, die Salsa essen, um herauszufinden, ob ihnen zu heiß wird.
Lisle bat die Schüler, ihre Experimentpläne in ChatGPT einzuspeisen und Feedback einzuholen. Der Bot schlug unter anderem vor, die Temperaturen einer Kontrollgruppe von Menschen zu messen, die keine Salsa aßen, um herauszufinden, ob andere Faktoren an der Veränderung der Körpertemperatur beteiligt sein könnten. Außerdem wurde eine Möglichkeit vorgeschlagen, um zu verhindern, dass Unterschiede in der Wasseraufnahme die Daten verfälschen.
ChatGPT „hatte tolle Vorschläge für die Kinder“, sagt Lisle – und die Schüler konnten erkennen, dass nicht alle davon hilfreich waren. Wenn Lisles Schüler Fragen haben, sagen sie, neigen sie dazu, ihn zu fragen, aber sie prüfen auch, was ChatGPT zu sagen hat .
Unzuverlässige Quelle
Einige Pädagogen sind hinsichtlich der Technologie weitaus vorsichtiger. Jesse J. Holland, stellvertretender Direktor der School of Media and Public Affairs an der George Washington University, rät den Studenten seiner fortgeschrittenen Nachrichtenberichterstattungskurse, künstliche Intelligenz nicht zum Schreiben von Aufgaben zu verwenden. „Man weiß nicht, woher die Informationen kommen, und man weiß nicht, wie zuverlässig diese Informationen sind“, sagt er.
David Joyner, der einen Online-Masterstudiengang in Informatik am Georgia Institute of Technology leitet, vergleicht den Einsatz von KI mit der Suche nach Hilfe von Klassenkameraden. Er sagt, es sei in Ordnung, einen Kommilitonen zu bitten, ein Konzept zu erklären oder zu beschreiben, wie ein Problem gelöst werden kann, aber jemand anderen zu bitten, die Hausaufgaben zu machen, wäre Betrug. Gleiches gelte für die Arbeit mit Bots, sagt Joyner.
Allerdings sagen viele Pädagogen, dass es schwierig sei zu beweisen, dass Schüler ChatGPT für Schulaufgaben außerhalb des Klassenzimmers nutzten. Turnitin, ein in Oakland, Kalifornien, ansässiges Unternehmen, bietet Software zur Erkennung von Plagiaten und KI-generiertem Schreiben an. Einige Universitäten haben diese Option jedoch abgelehnt, weil die Gefahr besteht, dass Studenten fälschlicherweise des Betrugs verdächtigt werden. „Unserer Erfahrung nach besteht eine Wahrscheinlichkeit von 1 %, dass wir ein Dokument als mit KI geschriebenen Inhalt einstufen, wenn dies nicht der Fall ist“, sagt ein Turnitin-Sprecher.
Ein Ansatz zur Bekämpfung des Missbrauchs der Technologie besteht darin, die Messlatte für Studenten höher zu legen, da sie nun über einen so leistungsstarken Tutor und Forschungsassistenten verfügen. „Gut ist nicht mehr gut genug“, sagt Christian Terwiesch, Managementprofessor an der Wharton School der University of Pennsylvania. „Es muss großartig sein.“ Bei der Bewertung der Arbeiten der Studierenden sagt er: „Meine Erwartungen sind gestiegen.“
Die Lehrer möchten auch, dass die Schüler die Grenzen der Technologie verstehen. James Hendler, der künstliche Intelligenz am Rensselaer Polytechnic Institute lehrt, fordert Studenten auf, ChatGPT zu bitten, einen zweiseitigen Aufsatz über ein Thema zu schreiben, das sie bereits gut kennen. Anschließend werden die Schüler gebeten, vom Bot gemachte Fehler zu korrigieren und Referenzen zu finden, um die Aussagen zu überprüfen, von denen sie glauben, dass sie wahr sind.
An der Washington University in St. Louis fordert der Finanzprofessor Mark Leary von den Studenten, die Antworten von ChatGPT zu bewerten, wenn sie gebeten werden, typische Geschäftsprobleme zu lösen. In einem Beispiel musste ein Unternehmen entscheiden, ob es einen Hochofen im Wert von 1 Million US-Dollar vorzeitig bezahlen sollte, um einen Rabatt von 50.000 US-Dollar zu erhalten. ChatGPT hat das Problem richtig formuliert, dann aber den Zeitpunkt der Cashflows des Unternehmens durcheinander gebracht und ist fälschlicherweise zu dem Schluss gekommen, dass eine frühzeitige Zahlung eine gute Idee sei.
Da Bots plausibel klingende Antworten präsentieren können, die sich aber als völlig falsch herausstellen, machen Leary und viele andere Lehrer die Schüler dafür verantwortlich, die Richtigkeit aller KI-abgeleiteten Inhalte in ihren Arbeiten zu überprüfen.
Stärkung der Grundlagen
In manchen Fällen hoffen Lehrer, dass Schüler mithilfe von Bots grundlegende Fähigkeiten stärken, was viel Zeit verschlingen würde. Lehrer für Mathematik oder Naturwissenschaften mögen es beispielsweise in der Regel nicht, Nachhilfeunterricht in den Grundlagen des Schreibens zu geben. Alternativ können Schüler Bots bitten, ihre ersten Entwürfe zu lesen und Verbesserungen vorzuschlagen. Das würde mehr Zeit für die Erforschung übergeordneter Ideen lassen.
Genau das tut Andres Zambrano mit Zustimmung seines akademischen Beraters an der University of Pennsylvania. Zambrano, ein gebürtiger Kolumbianer, arbeitet an einem Doktortitel. Er studiert Naturwissenschaften und Technik und hatte bei seiner Ankunft in den USA letztes Jahr Schwierigkeiten mit dem Schreiben auf Englisch. Er bittet ChatGPT regelmäßig, seine Texte zu überarbeiten, und gibt oft an, welche Zielgruppe er anspricht. Zambrano sagt, dass ihm das Studium der von ChatGPT vorgenommenen Überarbeitungen dabei geholfen hat, sein gesprochenes und geschriebenes Englisch zu verbessern, auch wenn er den Bot nicht verwendet. Er möchte immer noch, dass ein Mensch die endgültige Bearbeitung seiner Arbeiten übernimmt.
Pingkun Yan, der an der Rensselaer einen Kurs über die Analyse biologischer Bilder unterrichtet, widmete früher vier oder fünf Vorlesungen dem Unterrichten der Studenten, wie man Python-Computercode schreibt. Da die Studierenden nun einen Großteil dieses Wissens von ChatGPT erhalten können, möchte er die Python-Schulung in drei Vorlesungen abschließen und schneller mit der Analyse von Bildern beginnen.
KI trifft auf Lebenslauf
Mit oder ohne Unterstützung ihrer Lehrer finden Schüler kreative Möglichkeiten, ChatGPT zu nutzen.
Als Cassandra Harris Anfang des Jahres ihre Bewerbung als Redakteurin der Studentenzeitung Globe an der Point Park University in Pittsburgh ausfüllte, fühlte sie sich zu erschöpft, um ein Anschreiben zu schreiben. Also gab sie Informationen über ihre Qualifikationen in ChatGPT ein. Das Tool der künstlichen Intelligenz hat ihr Anschreiben geschrieben.
Harris fand den Brief „ziemlich gut“, überarbeitete ihn jedoch, um die Sprache etwas persönlicher und menschlicher zu gestalten, bevor sie ihre Bewerbung an das Büro für Studentenangelegenheiten schickte.
Harris erzählte es später einem ihrer Journalistikprofessoren, Andrew Conte, der im Auswahlausschuss für Redakteure saß. Er war schockiert: „Ich hatte das Gefühl, ein wenig betrogen worden zu sein.“ Dennoch glaubt Conte, Harris habe ihr schriftstellerisches Talent auf andere Weise unter Beweis gestellt.
In seinem Kurs zum Sammeln und Berichterstattung von Nachrichten erklärt Conte den Schülern, dass ChatGPT nicht als Ersatz für ihre Berichterstattung und Faktenprüfung verwendet werden sollte. Als ein externer Redner vor der Klasse sprechen sollte, bat er ChatGPT, ein Profil des Gastes zu erstellen. Es war voller Fehler und erwies sich daher als Lektion für Schüler, die sich möglicherweise zu Abkürzungen verleiten ließen.
Die Schüler lernen selbstständig die Grenzen von Bots kennen. Thomas Tyndall, Drehbuchautor an der Point Park University, fragte ChatGPT an, als er einen Kurzfilm mit einer Szene schrieb, in der Kinder sich als Cowboys ausgaben. „Ich fragte nach Dingen, die Cowboys sagen würden, bevor sie sich gegenseitig erschießen“, sagt er.
Er war enttäuscht, dass die Antworten vorhersehbar und wenig hilfreich waren. Sie enthielten ein Filmklischee: „Diese Stadt ist nicht groß genug für uns beide.“
Derzeit suchen Lehrer nach der richtigen Balance zwischen der Nutzung der Vorzüge von ChatGPT und der Vermeidung von übermäßigem Vertrauen. Shannon Juhan, Englischlehrerin bei Marist, unterstützt die Idee, Bots für Brainstorming oder Hilfe bei Grammatik und Klarheit einzusetzen. Sie möchte jedoch weiterhin, dass die Schüler ihren eigenen Schreibstil entwickeln. Sie möchte auch, dass sie einige der Schreibtipps, die sie von Bots erhalten, ablehnen: „Ich sage ihnen, dass man immer noch schlauer sein kann als der Computer.“
James R. Hagerty, ein ehemaliger Reporter des Wall Street Journal, ist Schriftsteller in Pittsburgh. Er kann unter [email protected] erreicht werden.