Im vergangenen Frühjahr und Sommer haben wir Dutzende Studierende verschiedener Fachrichtungen interviewt, die chatgpt und andere Large Language Models (LLMs) für akademische Arbeiten nutzten. Bei der Befragung der Studenten, die eine äußerst selektive private Forschungsuniversität besuchten, hatten wir drei Hauptfragen im Kopf: Was Studenten mit KI-Tools machten, ob die Fakultät ihre Verwendung befürwortete oder verbot und wie die Studenten ethisch dazu standen.
Wenn uns Interviews mit Studenten etwas sagen, dann ist es, dass immer mehr Studenten nach der öffentlichen Veröffentlichung von ChatGPT durch OpenAI im November 2022 KI als ersten Ausweg für fast alles nutzen. All dies deutet auf eine „Unvermeidlichkeit von KI“ in der Wissenschaft hin in Bezug auf die Studenten, die eine faire Nutzung annehmen.
Aus der Sicht der Studierenden ist vielen Berufen und Branchen der Prozess – im Gegensatz zum Produkt – nicht so wichtig wie uns in der Wissenschaft. Unabhängig davon, ob sie Recht haben oder nicht, werden Studierende, die dies glauben, wahrscheinlich KI-bewusste Unterrichtsumgebungen zu schätzen wissen, die ihnen die Möglichkeit bieten, den verantwortungsvollen Umgang mit Tools besser zu erlernen, die ihre Beförderung und berufliche Weiterentwicklung in Postgraduiertenlaufbahnen ermöglichen könnten. Alles, was das Studium in der Zwischenzeit erleichtert, ist ein Bonus.
Insgesamt deuten unsere Ergebnisse auch darauf hin, dass KI in mehr Lehrplänen – und auf der Ebene der einzelnen Aufgaben – allgemein anerkannt werden muss, als dies zu Beginn dieses Jahres der Fall war. Basierend auf dem, was wir letzten Frühling von Studenten gehört haben, bieten wir einige zusätzliche Vorschläge und Praktiken an, um moralische Unklarheiten zu diesem Thema zu minimieren.
Aber zuerst sollten wir unsere erste Frage beantworten: Was genau machen Studenten mit ChatGPT? Es stellt sich heraus, dass es fast alles gibt, und der letzte Frühling war deswegen ein aufregendes Durcheinander.
Die Studierenden berichteten von tiefgreifenden Änderungen des Lehrplans während des Semesters, der Wiedereinführung von Blue-Book-Prüfungen, zügellosen Bemühungen, die KI-Erkennung zu vereiteln, einer umständlichen Selbstkontrolle bei der Zusammenarbeit und so weiter. Aber die Studenten waren von ChatGPT begeistert und fasziniert und hatten fest vor, es wieder für akademische Arbeiten zu nutzen, wo dies erlaubt ist.
Der Teil „wo erlaubt“ war und bleibt interessant. Einige Studenten bezeichneten den vergangenen Frühling als den „wilden, wilden Westen“ der institutionellen KI-Politik. Sind wir uns einig. Laut a März-Umfrage unter 1.000 Studierenden, durchgeführt von BestCollegesNur 39 Prozent der Studenten gaben an, dass ihre Dozenten offen über KI-Tools diskutierten, und nur 25 Prozent gaben an, dass ihre Dozenten oder die Ehrenkodizes ihrer Hochschulen vorgaben, wie sie KI-Tools ethisch oder verantwortungsvoll nutzen sollten. In unserer kleinen Stichprobe von 30 Studierenden, die KI für akademische Arbeiten nutzten, erhielten 30 Prozent von ihren Professoren keine expliziten Anweisungen, die den Einsatz erlaubten oder verboten. Wir haben viele Fälle gefunden, in denen Lücken in der KI-Richtlinie verwirrend oder problematisch waren.
Nehmen wir zum Beispiel einen Studenten im vierten Studienjahr, der berichtete, dass „zwei Drittel“ seines Abschnitts in einem Ingenieurstudiengang eine Prüfung aufgrund der festgestellten unbefugten KI-Nutzung nicht bestanden hätten, obwohl das KI-Verbot für frühere Prüfungen desselben nicht galt Geben Sie dieses Semester oder identische Prüfungen in anderen Abschnitten desselben Kurses ein. Für Studierende ergeben solche Situationen keinen rationalen Sinn.
Die gute Nachricht ist, dass wir auch von Studierenden wissen, dass viele Lehrkräfte in der Post-ChatGPT-Gegenwart bereits sehr bewusst agieren. Da ist ein wachsende Zahl an Ratschlägen um sich mit KI vertraut machenErstellen Kursrichtlinien und finden google.com/document/d/1RMVwzjc1o0Mi8Blw_-JUTcXv02b2WRH86vw7mi16W3U/edit#heading=h.1cykjn2vg2wx“ target=“_blank“>Beispiele von Richtlinien.
ChatGPT scheint in jedem Kurs, der eine Programmiersprache wie R oder Python verwendet, unvermeidbar. Darüber ist schon viel gesagt worden KI signalisiert ein Umdenken beim traditionellen Aufsatzals Schreibaufgaben sind ein naheliegender Einsatzzweck generativer KI, aber in jedem Statistik- oder fortgeschrittenen Mathematikkurs werden unweigerlich mehr Studenten mit KI experimentieren, wobei die selbst beschriebenen Zeiteinsparungen und Effizienzgewinne der Superlative waren. Die Studierenden lobten die demokratisierende Wirkung von Bereitschaftsdiensten und genauer Codeprüfung als „Game-Changer“, wobei ChatGPT eine flexiblere Lernressource sei als statische Kursmaterialien oder Diskussionsforen.
In diesem Sinne erntet ChatGPT viel Kritik als potenzieller Lernvermeider, wir haben jedoch unzählige Beispiele von Studenten gehört, die es als Lernförderer nutzen. Fragen Sie die Direktoren Ihres Campus-Schreibzentrums, aber wir vermuten, dass sich die Nachfrage nach genehmigter Schreibunterstützung und Nachhilfediensten ändert. KI macht keineswegs die Notwendigkeit menschlicher Hilfe überflüssig – was laut Studierenden immer noch situativ vorzuziehen sei –, aber ihre Verfügbarkeit scheint ein hilfreiches Gegenmittel gegen Verzweiflung in letzter Minute zu sein, insbesondere in Prüfungszeiten, wenn Nachhilfetermine möglicherweise knapp sind.
In diesem Sinne sollten Studierende vor der verhaltensbedingten Gefahr gewarnt werden, KI als „aufschubfreundliche“ Ressource zu behandeln. Sowohl Fakultäts- als auch Studienberater sollten Studierende vor übermäßigem Vertrauen oder „Abhängigkeit“ von KI warnen, als wäre sie eine Art algorithmischer Addierer mit den damit verbundenen Risiken.
Es ist wichtig, die Abhängigkeit von KI zu verhindern, da derzeit nicht von einem gleichberechtigten Zugang ausgegangen werden kann. Einige Plattformen waren im vergangenen Frühjahr nicht immer für alle verfügbar – Produkte wie Bard wurden selektiv für Google-Nutzer eingeführt, während ChatGPT anfällig für periodische Ausfälle war. Wir vermuten, dass Technologieunternehmen in Zukunft Angebot und Nachfrage besser aufeinander abstimmen werden, aber Fragen zum Zugang dürften immer dann bestehen bleiben, wenn der Einsatz von KI vorteilhaft, erlaubt oder erforderlich ist.
Im Hinblick auf die Vermittlung einer Ethik des umsichtigen und verantwortungsvollen Einsatzes von KI sollten Lehrende ermutigt werden, dass sich viele Schüler der Grenzen der KI bewusst waren: nämlich der Neigung von ChatGPT, zu „halluzinieren“ und falsche oder voreingenommene Ergebnisse zu liefern. Im Zuge der Weiterentwicklung von GPTs und LLMs sollten Dozenten die Aufmerksamkeit auf ihre schwindenden Grenzen lenken und diese als didaktische Möglichkeit zur Betonung der Informationskompetenz nutzen.
Weitere Beispiele dafür, wie Studierende KI für akademische Arbeiten nutzten, waren das Verfassen von Aufsätzen, das Verfassen von Skripten für mündliche Präsentationen, das Skizzieren von Folien, das Generieren von Übungsprüfungsfragen und das Verfassen von E-Mails. Auch wenn keines dieser Beispiele notwendigerweise bahnbrechend ist, ärgerten sich die Studierenden ein wenig über die Diskrepanz zwischen den Einschränkungen der KI-Nutzung in der akademischen Arbeit und der Freiheit, die sie in ihrem nichtakademischen Leben nutzen – bei so unterschiedlichen Aufgaben wie Rezeptvorschlägen, Geschenkideen, Witzen oder sogar Therapie . Die Beschreibungen dieser Inkongruenz reichten von „was auch immer“ über „albern“, „lächerlich“ bis „heuchlerisch“.
Wir sollten auch über die KI-Erkennung sprechen, die, als sie eingeführt wurde, für einige tatsächlich als Abschreckung diente. Andere Studenten waren dreist in ihren Versuchen, die Entdeckung zu untergraben. Viele unserer Interviewpartner haben es versucht und berichteten, dass dies erfolgreich war. Angesichts der LLM-Verbesserungen ist es nicht schwer zu erkennen, wie ermüdend es für akademische Integritätsämter werden wird, die Richtigkeit zunehmend ununterscheidbarer menschlicher und KI-generierter Arbeit anzufechten.
Eine weitere Empfehlung, die wir aus unserer Forschung ziehen, ist, dass Lehrkräfte die Erwartungen an den Einsatz von KI bei Gruppenarbeiten und kollaborativen Aufgaben deutlich machen sollten.
Nehmen Sie zum Beispiel ein Gruppenprojekt, bei dem ein Google-Dokument zur Zusammenarbeit verwendet wird. Ein Student im vierten Studienjahr erzählte von gruppengenerierten „Antworten“ auf eine Frage für eine Business-Class-Fallstudie, die plötzlich wie von Zauberhand in ihrem gemeinsamen Dokument auftauchten. „Wie ist das passiert? Hast du die ganze Aufgabe erledigt?“ fragten sie das verdächtig produktive Gruppenmitglied. Natürlich wurden diese Ergebnisse von ChatGPT kopiert und eingefügt, was den Rest der Gruppe dazu veranlasste, zusammenzukommen und ihren Ansatz zu klären, da für die Aufgabe kein Standard für die KI-Nutzung festgelegt wurde.
Manche mögen solche Episoden als unbeabsichtigte Gelegenheiten für Schüler sehen, Selbstverwaltung zu üben, aber es gibt Risiken, wenn Schüler über den Einsatz von KI durch Gleichaltrige entscheiden müssen, einschließlich Zwang zum Einsatz von KI, während einige Gruppen, Mitglieder oder Lehrkräfte es vorziehen, dies nicht zu tun. Auch hier können klare Erwartungen von Aufgabe zu Aufgabe den Schülern die Verwirrung bei der Entscheidung darüber ersparen, ob sie ein von Mitschülern allgegenwärtig verwendetes Tool verwenden sollen.
Eine weitere wichtige Erkenntnis aus unseren Gesprächen mit Studenten ist, dass ChatGPT besonders hilfreich für Englischlerner war, von denen einer es als „einen Segen“ bezeichnete. Die Anziehungskraft der KI ist für internationale Studierende deutlich größer, von denen viele im Vergleich zu englischen Muttersprachlern viel von der Textgenerierung und Textsynthese profitiert haben. Internationale Studierende in unserer Stichprobe nutzten KI häufiger, um lange Leseaufgaben zusammenzufassen und Routine-E-Mails zu verfassen.
Darüber hinaus haben wir mit einigen internationalen Studenten in den USA gesprochen, die KI-Ergebnisse an Freunde in anderen Ländern weiterleiteten, in denen beispielsweise ChatGPT blockiert oder nicht verfügbar war. Dies wirft wichtige Überlegungen zum Zugang und zur Fairness für in den USA ansässige Studierende auf, die im Ausland studieren, oder für die Informations- und Datensicherheit, wenn US-Studenten kooptiert (oder bezahlt) werden, um KI-generiertes Wissen über internationale Firewalls zu schmuggeln.
Abschließend möchten wir noch ein paar Vorhersagen machen, die – ein Spoiler für alle Fakultäts-Zaunsitter – alle auf eine Art KI-Unvermeidlichkeit oder eine allgegenwärtige KI-Einführung bei Studierenden hindeuten. Von den 17 Studierenden, die wir fragten, ob sie planen, KI erneut für akademische Arbeiten einzusetzen, antworteten alle 17 mit Ja. Es ist klar, warum: Sie finden es wirklich nützlich.
Letztendlich sehen Studierende in ChatGPT eine effizientere Möglichkeit, viele Dinge innerhalb und außerhalb des Studiums zu erledigen, mit klaren Beispielen, die sich in beruflichen Karrieren niederschlagen, in denen ihr Erfolg und ihre Aufstiegsmobilität möglicherweise nicht so sehr an bestimmte ethische und lernbezogene Überlegungen gebunden sind, die für die Wissenschaft von Bedeutung sind.
Für viele Ausbilder wird die zunehmende Einführung von KI genauso viel oder mehr Aufmerksamkeit auf die Pädagogik erfordern wie die Umstellung auf Fernunterricht während der Pandemie. In den nächsten Jahren werden Lehrkräfte die KI-Bestimmungen in ihren Aufgaben und Lehrplänen immer wieder überdenken müssen – was, ehrlich gesagt, für viele schwierig sein wird. Es wird erhebliche Anstrengungen erfordern, aber die Präsenz von KI in der Wissenschaft ist unvermeidlich.