In diesem Frühjahr, als auf dem Universitätsgelände Debatten über die richtige Rolle der generativen KI in der Hochschulbildung tobten, erstellte die außerordentliche Professorin des Diablo Valley College, Frako Loden, eine Aufgabe, um zu sehen, wie Studenten ihres American Cinema-Kurses mit chatgpt interagierten.

Für ihren letzten Meinungsbeitrag des Semesters sollten sie eine Diskussionsfrage zum Film „A Place in the Sun“ aus den 1950er Jahren auswählen, diese als Eingabeaufforderung in ChatGPT einfügen und die Antwort dann selbst bewerten. Die KI habe in einigen Fällen wichtige Details der Handlung falsch verstanden, sagte Loden.

Im Film zum Beispiel nimmt der Protagonist George seine Freundin mit an einen See, wo sie hineinfällt und versehentlich ertrinkt, aber ChatGPT sagt, dass er sie dort absichtlich getötet hat. „Das mag ein subtiler Punkt sein, aber am Ende kommt es wirklich ins Gewicht, wenn man seinen Charakter beurteilt“, sagte Loden. „ChatGPT geht da irgendwie unhöflich vor und deutet an, dass er es von Anfang an geplant hat und dass er ein böser Kerl ist.“ .“

Lodens Aufgabe veranschaulicht nicht nur die Grenzen von ChatGPT – Loden sagte, sie habe in ihrer eigenen Forschung herausgefunden, dass viele Details der darin enthaltenen Filmhandlungen nicht nur falsch, sondern auch „ideologisch aufgeladen“ und „vielleicht sogar rassistisch“ seien –, sondern auch, wie Professoren zunehmend damit experimentieren seine Verwendung im Unterricht.

Die öffentlichen Hochschulsysteme Kaliforniens haben noch keine formelle Richtlinie für den Einsatz generativer KI entwickelt, die Bilder und Texte erzeugen kann, die von Menschen erstellten Bildern und Texten kaum zu unterscheiden sind. Dadurch bleiben die Professoren in der Rolle des Wachhundes, der Verstöße gegen die akademische Integrität verhindert.

Während sich einige darauf konzentrieren, gegen Betrüger vorzugehen, sind immer mehr Menschen zu dem Schluss gekommen, dass die Technologie von Dauer sein wird, und vergeben Aufgaben, die darauf abzielen, den Studierenden die Vorteile der KI als Forschungsinstrument zu vermitteln und gleichzeitig ihre Grenzen und Fehleranfälligkeit anzuerkennen.

„Die Fakultät muss eine Entscheidung treffen, sei es in Kalifornien oder im ganzen Land. Und die Entscheidung ist: Willst du adoptieren?“ sagte Tony Kashani, Professor für Pädagogik an der Antioch University, der ein Buch über den Einsatz von KI im Klassenzimmer schreibt. „Auf dem Campus gibt es darüber viel Streit.“

?Url=Https%3A%2F%2Fsfstandard.com%2Fwp Content%2Fuploads%2F2022%2F12%2Faichatbot12022022
Eine Fotoillustration zeigt ChatGPT, ein KI-Tool, das ähnlich wie Menschen schreiben kann. | Camille Cohen/Der Standard

Wenn es um KI geht, hat sich die Technologie schneller entwickelt als Ethik und Politik, sagte Kashani. Er sagte, Bots wie ChatGPT seien als „Schreibberater“ für Studenten vielversprechend. „Es kommt nicht oft vor, dass Studenten die Gelegenheit haben, sich mit einem Professor zusammenzusetzen und lange darüber zu diskutieren, wie sie bei dieser oder jener Arbeit vorgehen sollen und wie sie an die Forschung zu diesem oder jenem Thema herangehen sollen. Aber ChatGPT kann das für sie tun, vorausgesetzt […] Sie wissen, wie man die richtige Ethik anwendet und sie als Werkzeug und nicht als Ersatz für ihre Arbeit nutzt.“

Siehe auch  Meinung: Werden ChatGPT und KI verlustbringende Technologieunternehmen vor Leerverkäufern retten?

Dies ist der Ansatz des Stanford-Soziologieprofessors David Grusky, dessen Lehrplan für einen kürzlich durchgeführten Kurs über öffentliche Politik die Verwendung von KI-generiertem Text in Aufgaben zuließ, unter der Bedingung, dass sie auf die gleiche Weise zitiert werden, wie es bei einem Gespräch mit einem Menschen der Fall wäre.

„Es ist ein Gespräch, das nach Belieben ausgelöst werden kann. Aber inhaltlich ist es nicht anders“, sagte Grusky. „Man muss immer noch abwägen, was jemand sagt und ob es sinnvoll ist oder nicht.“

Er glaubt, dass KI den Studierenden dabei helfen kann, die Qualität von Quellen zu bewerten, was der Wissenschaft langfristig gute Dienste leisten kann. „Ich glaube, dass unsere Aufgabe in der Welt des Grundstudiums typischerweise darin besteht, den Menschen dabei zu helfen, nachdenklicher, strenger und analytischer zu werden.“

Stanford schuf auf Anregung von Professoren eine Grundpolitik Verbot des Einsatzes von KI zur Unterstützung bei der Erledigung von Aufgaben, sofern im Lehrplan nichts anderes vorgesehen ist. Und einige kalifornische Hochschulprofessoren bleiben skeptisch.

„Ich sehe darin eher ein Problem als einen Vorteil“, sagte Johannes van Gorp, Dozent für Geschichte und Politikwissenschaft am Santa Rosa Junior College.

Das Aufkommen der generativen KI habe insbesondere seitdem die Arbeitsbelastung der Ausbilder erhöht, die mit dem Schummeln aufhören wollen, sagte er Software, die nach KI-generierten Inhalten sucht, ist unvollständig.

Van Gorp hat eine Richtlinie eingeführt, die den Einsatz künstlicher Intelligenz in seinen Kursen verbietet, und lässt fast jede Aufgabe, die eingereicht wird, drei verschiedenen KI-Prüfern durchlaufen, um Vertrauen in die Ergebnisse aufzubauen, die er erhält.

„Zuerst habe ich (KI-Nutzung) über das System gemeldet, aber es war so allgegenwärtig, dass ich einfach angefangen habe, so schlimm es auch klingen mag, die Aufgaben mit Nullen zu versehen und zu vermerken: ‚Das ist KI-generiert.‘“

Dennoch sagte van Gorp, er müsse anerkennen, dass „die Welt sich verändert“.

„Dinge wie (das Tool zur Grammatikprüfung) Grammarly oder so weiter, das sind auch KI-Programme. Und wo ziehen Sie die Grenze? Und ich bin mir nicht ganz sicher, ob ich das herausgefunden habe. Und die Institutionen schon gar nicht.“

Der akademische Senat der California State University, der die Fakultät vertritt, verabschiedete im März einen Beschluss, in dem die Bildung einer Arbeitsgruppe für künstliche Intelligenz in der Hochschulbildung bis Ende August gefordert wird. Die Arbeitsgruppe würde die Grenzen der KI, Möglichkeiten für die berufliche Weiterentwicklung der Lehrkräfte und Möglichkeiten zur Gewährleistung der akademischen Integrität untersuchen und die Reaktion der Universität über die Campusgrenzen hinweg koordinieren.

Um ihren Standpunkt darzulegen, nutzte die Fakultät ChatGPT, um einen Teil der Resolution selbst zu entwerfen. „Welchen Grad an akademischer Unehrlichkeit würde das auf einem CSU-Campus bedeuten?“ fragten die Autoren und fügten hinzu: „Diese Resolution fordert die CSU auf, zu überlegen, wie sie diese Technologie am besten nutzen kann, in dem Verständnis, dass KI unweigerlich die Art der Bildung verändern wird, unabhängig von den Maßnahmen, die das System ergreift.“

Siehe auch  ChatGPT muss aufs College gehen. Zahlt OpenAI?

Generative KI ist da draußen und wird auch in Zukunft verfügbar sein, sagte die Vorsitzende des Akademischen Senats, Beth Steffel, in einem Interview. „Wenn wir es ignorieren oder versuchen, es zu verbieten, ist das wahrscheinlich zum Nachteil aller.“

Die Fakultät der California Community Colleges hat sich außerdem verpflichtet, bis zum Frühjahr 2024 einen Rahmen zu entwickeln, den Hochschulen nutzen können, um Richtlinien zu KI zu erstellen. Die University of California verfügt seit 2020 über eine KI-Arbeitsgruppe, die in der Vergangenheit den Einsatz der Technologie in der Beratung empfohlen hat , Studentenbindung, Zulassung und sogar Prüfungsaufsicht, sowie die Forderung, dass einzelne UC-Campusse Räte einrichten, um ihren Einsatz von KI zu überwachen.

Eine im März von der Hochschulranking-Website BestColleges durchgeführte Umfrage ergab, dass 43 % der Hochschulstudenten angeben, Erfahrung im Umgang mit KI wie Chat GPT zu haben, und 22 % gaben an, dass sie diese zum Abschließen von Prüfungen oder Hausaufgaben verwendet haben.

„Ich kann mir vorstellen, dass diese Zahl noch steigen wird“, sagte Camille Crittenden, Geschäftsführerin am Center for Information Technology Research in the Interest of Society der UC Berkeley und Mitglied der UC-Arbeitsgruppe. „Also könnten die Lehrer genauso gut dabei sein, ihnen dabei zu helfen, verantwortungsvoll damit umzugehen und herauszufinden, wie sie Zitate tatsächlich noch einmal überprüfen und sicherstellen können, dass sie echt sind.“

Während sich die Universitäten mit der Festlegung von Richtlinien auseinandersetzen, strömen Professoren in die sozialen Medien, um sich Luft zu machen und Fragen zu stellen. Viele der Gespräche zeigen eine Spaltung zwischen Professoren, die den Einsatz von KI integrieren wollen, und solchen, die Angst davor haben, sie in den Unterricht zu zulassen.

„Ich habe gerade einen Studenten dabei erwischt, wie er ChatGPT nutzte, um Fragen zu Online-Tests zu beantworten“, postete ein Professor auf Pandemic Pedagogy, einer Facebook-Gruppe, die gegründet wurde, um Dozenten bei der Navigation im Online-Unterricht zu unterstützen. „In meinem Lehrplan steht, dass die Arbeit der Schüler ihre eigene sein muss und Plagiate zu einer nicht bestandenen Note führen, aber ich erwähne die Nutzung solcher Plattformen nicht. […] Was soll ich machen?“

(Die Facebook-Gruppe ist nur auf Einladung zugänglich, aber einige Poster gaben CalMatters die Erlaubnis, ihre Kommentare zu zitieren.)

Einige schrieben über die scheinbare Sinnlosigkeit des Versuchs, Betrüger zu fangen, angesichts der Unzuverlässigkeit von Software, die darauf ausgelegt ist, KI-generierte Inhalte zu kennzeichnen.

„Wir sollten Aufträge vermeiden, die versuchen, ChatGPT oder andere KIs zu ‚nutzen‘“, argumentierte ein anderer Kommentator und fügte hinzu, dass die Dienste möglicherweise nicht weiterhin kostenlos bleiben und Antworten zurückgeben könnten, die so gestaltet sind, dass sie Werbetreibenden zugute kommen.

Elizabeth Blakey, außerordentliche Professorin für Journalismus an der Cal State Northridge, erlaubte Masterstudenten in ihrem Kurs für Massenkommunikation, ChatGPT zu nutzen, um bei der Ausarbeitung von Forschungsvorschlägen zu helfen. „Es wird Ihnen Informationen geben, es wird Ihnen Namen geben, vielleicht einige Ideen oder Vokabeln, an die Sie nicht gedacht haben“, sagte sie in einem Interview. „Und dann können Sie von dort aus Ihre eigene Kreativität und Ihre eigene weitere Forschung nutzen, um darauf aufzubauen.“

Siehe auch  Es handelt sich um einen von ChatGPT geschriebenen Betrug

Sie glaubt, dass es dazu beigetragen hat, die Angst ihrer Schüler vor dem Tool zu verringern und ihnen eine neue Fähigkeit vermittelt hat, die sie in die Arbeitswelt übernehmen können.

Beatrice Barros, eine von Blakeys Studenten, sagte, ChatGPT sei praktisch gewesen, als sie mitten im Semester ihr Projektthema wechselte, aber nervös war, weil sie nicht genug Zeit hatte, um es fertigzustellen. Der Einsatz der KI, sagte sie, „hat mir beim Start geholfen, wie eine Motivation.“

Aber sie lernte, mit Skepsis mit dem umzugehen, was die KI ihr gab. „Manchmal war es sehr, sehr falsch“, sagte sie. „Dadurch wurde mir bewusster, dass ChatGPT Sie manchmal austricksen und möglicherweise in Schwierigkeiten bringen kann, wenn Sie Inhalte nicht lesen.“

Ihr Gesamteindruck? „Manchmal ist es besser, seine Hausaufgaben zu machen.“

Blakeys Kollege David Blumenkrantz stellte die Schüler seines Kurses für visuelle Kommunikation vor die Wahl, ob sie KI für die Gestaltung eines Magazins nutzen wollten. Sie könnten den Vorschlag und die Prämisse ihres Magazins schreiben oder es von ChatGPT schreiben lassen. KI-generierte Bilder könnten das Cover des Magazins zieren, wobei die Schüler die Schriftart und Titel darüber hinzufügen. Einzige Vorgabe: Die Studierenden erklären, welche Teile KI-generiert wurden und warum.

Etwa ein Drittel der Klasse entschied sich für die Verwendung von KI für die Aufgabe, sagte er.

Blumenkrantz sagte, er arbeite derzeit mit einer Universität in Nairobi in Kenia zusammen, um deren Fotojournalismusprogramm aufzubauen, und sein 63-seitiger Lehrplan sei größtenteils aus KI-generierten Inhalten zusammengestellt worden. Er gab ChatGPT-Eingabeaufforderungen, änderte die Antworten, um tiefer auf jedes Thema einzugehen, und überprüfte sie auf Fakten, sagte er. Er habe Wochen damit verbracht, den Lehrplan zu erstellen, sagte er, während es ohne die KI-generierte Forschung Monate gedauert hätte, ein Ergebnis, das er als „erstaunlich“ bezeichnete.

Jenae Cohn, die geschäftsführende Direktorin des UC Berkeley Center for Teaching & Learning, das Professoren dabei hilft, effektiven Unterricht zu gestalten, sagte, sie und ihre Mitarbeiter hörten oft von Dozenten wie Blumenkrantz, die „besser verstehen wollen, wie man KI auf kreative Weise in ihrem Unternehmen einsetzen kann.“ Lehren.

„Am anderen Ende des Spektrums haben wir viele Fragen dazu, wie Schüler KI zum Betrügen nutzen. Es gibt viele Bedenken hinsichtlich der akademischen Integrität.“

Zu ihrer eigenen Meinung sagte sie: „Ich glaube nicht, dass KI die Bildung unbedingt zerstören wird. Ich glaube auch nicht, dass es die Bildung revolutionieren wird. Ich denke, es wird einfach den Werkzeugkasten dessen erweitern, was in unseren Klassenzimmern möglich ist.“

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein