Künstliche Intelligenz gibt es schon seit Jahrzehnten. 1951 Pionier der Informatik Christopher Strachey schrieb das erste erfolgreiche KI-Programm. Seitdem ist es fester Bestandteil unseres Alltags – von der Erkennung von Bankbetrug über die Vorhersage der Grippesaison bis hin zur Gesichtserkennung auf unseren Smartphones.

Doch seitdem große, auf Sprachmodellen basierende Tools wie chatgpt für die Öffentlichkeit zugänglich geworden sind, hat KI immer mehr negative Aufmerksamkeit auf sich gezogen, insbesondere aufgrund der Aussicht, dass Studenten sie zum Erledigen von Aufgaben nutzen könnten.

Cynthia Furse, Professorin für Elektrotechnik und Computertechnik an der University of Utah, nutzt KI im Unterricht. Sie bringt ihren Schülern bei, wie man genetische Algorithmen nutzt, die computercodierte natürliche Selektion nutzen, um Antennen zu entwerfen.

Ingenieure verwenden seit den 1960er Jahren KI-ähnliche genetische Algorithmen, sodass ChatGPT und andere textgenerierende Bots Furse zumindest in ihrer aktuellen Form nicht als besonders revolutionär erscheinen. Sie sind nicht in der Lage, Daten korrekt zu erstellen oder Quellen korrekt zu zitieren, sodass ihre Möglichkeiten, beispielsweise beim Verfassen eines wissenschaftlichen Berichts mitzuhelfen, immer noch begrenzt sind.

„Sie haben das Ding gerade geschrieben, als Sie ChatGPT sagen, was Sie für Sie schreiben sollen“, sagte Furse.

Andere Professoren, wie Chris Babits von der Utah State University, glauben, dass generative KI einen „Paradigmenwechsel“ in der Hochschulbildung auslösen wird – nicht weil sie befürchten, dass ihre Studenten davon abhängig sind, sondern weil sie den Pädagogen die Möglichkeit bietet, ihre Lehrweise neu zu bewerten.

Cynthia Furse, Professorin für Elektrotechnik und Informationstechnik an der University of Utah, hält am Dienstag, den 23. Mai 2023, in ihrem Büro an der University of Utah in Salt Lake City eine Antenne über einen Herzschrittmacher. Laut Furse wird künstliche Intelligenz seit Jahrzehnten zur Entwicklung von Antennen eingesetzt.

Kristin Murphy, Deseret News

KI legt die Messlatte für Lehrer und Schüler höher

„Ich denke, die Rolle, die ein Professor spielen sollte, besteht darin, keine Angst davor zu haben, dass Studenten betrügen. Wir sollten uns bewusster machen, was es überhaupt bedeutet, unsere Schüler zu unterrichten“, sagte Christa Albrecht-Crane, Englischprofessorin an der Utah Valley University.

Siehe auch  Der ChatGPT-Hersteller OpenAI plant, mit der Herstellung eigener KI-Chips zu beginnen. Hier erfahren Sie, warum es wichtig ist

Als Vorsitzende des Schreibprogrammausschusses der Universität leitet Albrecht-Crane Gespräche mit ihren Kollegen darüber, wie sie ihren Studierenden beibringen können, dass es für sie von Vorteil ist, selbst zu schreiben.

Ein Teil dieser Initiative besteht darin, Arbeiten in separate Aufgaben zu unterteilen, z. B. Brainstorming, Gliederung, Rohentwurf, Überarbeitung und Begutachtung durch Fachkollegen. ChatGPT kann bei all diesen Schritten behilflich sein – Albrecht-Crane hat es sogar in ihrem Klassenzimmer als „Mitarbeiterin“ eingeführt –, aber die Aufschlüsselung eines Aufsatzes verringert möglicherweise die Wahrscheinlichkeit, dass Schüler sich beim Verfassen des gesamten Aufsatzes darauf verlassen.

„Der Schwerpunkt liegt nicht auf dem Produkt des Schreibens, sondern auf dem Prozess der Erstellung von Texten, in die sich die Schüler einbringen“, sagte Albrecht-Crane.

Textgenerierende KI kann Professoren auch dazu veranlassen, Aufgaben zu entwerfen, die von den Studenten mehr Kreativität, Zusammenarbeit und komplexe Analysen erfordern. Babits, ein Geschichtsprofessor, plant, diese Philosophie im kommenden Herbst in seinem Kurs „Amerika in den 1960er Jahren“ umzusetzen.

Babits geht davon aus, dass die Schüler ChatGPT verwenden werden, um „untergeordnete“ Aufgaben für die Klasse zu erledigen, und verlangt von ihnen, dass sie Scheinmuseumsausstellungen für das National Museum of American History und Social-Media-Kampagnen erstellen, um diese Exponate auf der Grundlage der zugewiesenen Lesungen zu vermarkten.

„Sie sehen also, das ist viel schwieriger und herausfordernder, aber wahrscheinlich sinnvoller, als sich hinzusetzen und im Laufe eines Semesters drei Aufsätze über drei verschiedene Bücher zu schreiben“, sagte Babits.

Einige Professoren betrachten ChatGPT lediglich als eine weitere neue Technologie – in derselben Kategorie wie Taschenrechner und das Internet. Früher erforderte das Schreiben Kenntnisse in Rechtschreibung und Grammatik, bis Rechtschreibprüfung und Grammarly auf den Markt kamen. USU-Informatikprofessor John Edwards argumentiert, dass textgenerierende KI auf einer höheren Ebene dasselbe tut, was Prosa ist.

„Aber ich glaube nicht, dass dadurch die höchste Ebene – der wichtigste Teil – der Art und Weise, wie man ein Argument konstruiert, oder … die Kreativität hinter dem Schreiben verloren geht“, sagte Edwards.

Merlin_2981420.Jpg

Cynthia Furse, Professorin für Elektrotechnik und Informationstechnik an der University of Utah, hält Antennen in der Hand, während sie am Dienstag, dem 23. Mai 2023, in ihrem Büro an der University of Utah in Salt Lake City für ein Porträt posiert. Laut Furse wird künstliche Intelligenz seit Jahrzehnten zur Entwicklung von Antennen eingesetzt .

Kristin Murphy, Deseret News

Integration von ChatGPT in die Lehrpläne der Hochschulen

Mitten im vergangenen Frühlingssemester gab Babits seinem Kurs „Geschichte der Sexualität“ eine optionale Aufgabe: Die Studenten sollten ChatGPT eine Frage stellen, die sie zum Unterrichtsstoff hatten, und dann die Stärken und Schwächen der Antworten analysieren.

Siehe auch  Ich habe ChatGPT gefragt, ob PEPE eine weitere Erhöhung um 2000 % bewirken würde. es sagte…

Nachdem ihre anfängliche Verwunderung nachgelassen hatte, fielen den Schülern Mängel in der Ausgabe des Bots auf – sie war relativ allgemein gehalten, es mangelte an Tiefe und sogar einige Informationen waren falsch. Einige Studenten betrachteten es als hilfreichen Ausgangspunkt, aber niemand sagte, dass sie ihm die Bewältigung einer gesamten Aufgabe anvertrauen würden.

Eine mögliche Schlussfolgerung daraus ist, dass Studierende ChatGPT möglicherweise weniger wahrscheinlich für die Erledigung ihrer gesamten Arbeit verwenden, wenn sie die Mängel verstehen. Albrecht-Crane glaubt, dass Pädagogen die Verantwortung haben, ihren Schülern den ethischen Umgang mit ChatGPT beizubringen, um sie auf den Eintritt in eine Arbeitswelt vorzubereiten, die wahrscheinlich durch KI verändert wird.

Was passiert, wenn Schüler ChatGPT zum Schummeln nutzen?

Die meisten dieser Professoren räumten ein, dass es für zumindest einige Studierende unvermeidlich sei, generative KI zu nutzen, um nicht mehr ihre eigene Arbeit erledigen zu müssen. Und während einige glauben, dass ein Verbot von ChatGPT mehr Schaden als Schaden anrichten wird, sehen andere darin die beste Möglichkeit, Schüler davon abzuhalten, sich darauf zu verlassen.

Edwards ist der Ansicht, dass College-Studenten irgendwann einmal mit KI in Berührung kommen sollten, ein Verbot dieser KI auf Kursebene wäre jedoch nicht schädlich.

„ChatGPT verändert nicht die Welt. „Es ist ein Schritt in unserem jahrzehntelangen Fortschritt bei der innovativen Nutzung von Technologie“, sagte er. „Es ist zwar ein großer Schritt, aber ich habe absolut kein Problem damit, wenn ein Englischlehrer es nicht nutzt.“

Für Pädagogen, die befürchten, dass ihre Schüler ihre Fähigkeiten zum kritischen Denken durch KI verlieren, könnten die Rückkehr zu traditionellen Tests, statt den Schülern Open-Book-Prüfungen zu geben, in Frage kommen.

Eines der Hauptprobleme beim Verbot des Einsatzes generativer KI im Klassenzimmer besteht darin, dass es nahezu unmöglich ist, es durchzusetzen. Für Studierende ist es ganz einfach, ChatGPT-Antworten so zu optimieren, dass sie wie von Menschen geschrieben klingen, und KI-Erkennungssoftware kommt häufig zu dem Schluss, dass eine Arbeit zumindest teilweise von KI erstellt wurde, wenn der Student das Ganze selbst geschrieben hat.

Siehe auch  Wie man ChatGPT ethisch zum Schreiben eines Aufsatzes nutzt

Aus diesem Grund erforschen Edwards und seine Kollegen an der USU eine andere Methode zur Plagiatserkennung: die Verfolgung von Tastenanschlägen. Zusammen mit ihrer Aufgabe reichten Informatikstudenten ein Protokoll über die Leerzeichen, das Kopieren und Einfügen sowie alle anderen Tasten ein, die sie bei der Eingabe ihres Codes betätigten.

Ein Einblick in die Codierungsprozesse ihrer Studenten würde es Professoren ermöglichen, Warnsignale zu erkennen – ein Kopieren und Einfügen könnte darauf hindeuten, dass ein Student ein codegenerierendes KI-Programm wie Copilot verwendet hat. Die Forschung von Edwards zeigt auch, dass Studierende weniger wahrscheinlich plagiieren, wenn sie wissen, dass ihre Tastatureingaben verfolgt werden.

Obwohl Edwards und sein Team immer noch an der Lösung einiger Probleme bei der Protokollierung von Tastenanschlägen arbeiten, etwa der potenziellen Verletzung der Privatsphäre und der Angst, die sie bei manchen Schülern hervorrufen könnte, könnte dies einen effektiveren Ansatz zur KI-Erkennung im Bildungsbereich darstellen.

Was passiert, wenn die KI voranschreitet?

Viele argumentieren, dass die eigentliche Sorge nicht die KI in ihrem gegenwärtigen Zustand ist, sondern die leistungsfähigere KI, die die Zukunft wahrscheinlich bringen wird. Anfang dieses Monats veröffentlichte das Center for AI Safety eine Erklärung, in der es die Ernsthaftigkeit des KI-Fortschritts hervorhob, und erhielt Unterschriften von Hunderten von Technologieexperten.

„Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein“, heißt es in der Erklärung.

Andere Experten haben sich entschieden, von der KI Abstand zu nehmen. Geoffrey Hinton, der „Godfather of AI“, dessen Forschung für die Entwicklung von Software wie ChatGPT von entscheidender Bedeutung war, hat seine Arbeit bei google aufgegeben und seine Sorge geäußert, dass die KI außer Kontrolle geraten könnte.

Er sagte sogar, dass das Potenzial der KI, die Menschheit auszulöschen, „nicht unvorstellbar“ sei, berichtete Deseret News.

Diese Ansicht ist jedoch nicht universell. Als Ingenieur sieht Furse Hoffnung in der Zukunft der generativen KI. Wenn ChatGPT schließlich in der Lage wäre, genauere Informationen zu erstellen und beispielsweise Quellen zu zitieren, wäre das nützlich und würde es Schülern und Lehrern ermöglichen, sich auf fortgeschrittenere Aufgaben zu konzentrieren.

„Es wäre wirklich fantastisch, uns Zeit zu sparen, um die einfallsreicheren Dinge zu tun“, sagte Furse.

Edwards behauptet, dass, wenn KI tatsächlich destruktiv wird, dies nicht daran liegt, dass sie zu intelligent geworden ist, sondern daran, dass die Menschen es versäumt haben, sich anzupassen.

„Wir müssen das hervorheben, was uns zu Menschen macht“, sagte er. „Und wenn wir das tun, wenn wir uns als Menschen kontinuierlich verbessern, dann glaube ich nicht, dass Computer jemals aufholen werden.“

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein