Seit dem Start von chatgpt am 30. November 2022 ist in Bildungskreisen viel passiert. In den letzten 12 Monaten haben verschiedene Umfragen ergeben, dass zwischen 30 und 90 % der Studierenden generative KIs und große Sprachmodelle verwenden, um ihre Aufgaben zu erledigen. Andere Umfragen haben gezeigt, dass jüngere Schüler und ihre Eltern glauben, dass diese Tools effektiver sind als Privatlehrer.

In Verbindung mit den jüngsten Erkenntnissen des Vereinigten Königreichs, dass die COVID-Pandemie in vielen Fällen zum Stillstand gekommen ist die jahrhundertealte Verbindung zwischen Schülern und dem BildungssystemEinige könnten diese Entwicklungen als besorgniserregend empfinden. Aber sind sie es? Könnten sie tatsächlich eine Chance sein, die Bildung besser, zukunftsorientierter und integrativer zu gestalten?

Andere haben darauf hingewiesen, dass die Einführung der generativen KI unmittelbar nach den verheerenden COVID-Lockdowns die Schüler in ein Umfeld des unabhängigen Forschens, des persönlichen Lernens und der Selbstfindung gedrängt hat, was alles unzählige Vorteile haben kann – vorausgesetzt, sie können es vermeiden Fehlinformationen.

Um dies anzuerkennen, glauben einige Pädagogen mittlerweile, dass Schulen, Hochschulen und Universitäten mehr als nur Unterricht anbieten und möglicherweise auf Seelsorge und Wohlbefinden umsteigen müssen – eine Herausforderung, wenn die Budgets der Kommunen begrenzt sind und Traditionalisten in Aufruhr geraten würden .

Aber es gibt noch einen weiteren Aspekt: ​​die außergewöhnliche Geschwindigkeit, mit der KI eine Lücke gefüllt hat, von der viele Menschen nicht wussten, dass sie existiert. ChatGPT wurde heute vor einem Jahr ins Leben gerufen und hat dennoch seinen Weg ins Epizentrum sowohl der höheren Wissenschaft als auch der Schulbildung gefunden. Was auch immer ihre Vorzüge sein mögen, die Eile, mit der viele Menschen KI eingeführt und ihr vertraut haben, mag unklug erscheinen.

Wie der Leiter eines KI-Unternehmens diesen Monat ausdrückte, besteht ein Problem darin, dass generative KIs weder „Wahrheitsmaschinen“, wie er es ausdrückte, noch dafür ausgebildet sind. Zumindest müssen Schüler und Lehrer das verstehen. Modelle, die auf Daten aus dem Internet vor 2021 trainiert wurden, sind keine Garantie für Richtigkeit oder Unvoreingenommenheit.

Wie können politische Entscheidungsträger also mit diesen Problemen umgehen – insbesondere in einer Welt zunehmender Fehlinformationen? Und wie kann das Bildungssystem akademische Integrität im Zeitalter der KI gewährleisten? Das waren zwei Fragen, die diesen Monat von einem Westminster Higher Education Forum gestellt wurden.

Professor Michael Grove ist stellvertretender Pro-Vizekanzler für Bildungspolitik und -standards an der Universität Birmingham. Er erzählte den Delegierten, dass es ein überraschendes Ergebnis gab, als Studenten der Brown University die Erlaubnis erhielten, ChatGPT in einem Modul zu verwenden:

Ihr Verbrauch ließ nach den ersten ein bis zwei Wochen deutlich nach. Was wirklich interessant war, war, als sie mit den Studenten darüber sprachen, warum sie diese Tools nicht nutzten, es gab zwei Gründe. Das erste war vielleicht nicht überraschend: die Angst, trotz Erlaubnis gegen die Kursregeln zu verstoßen.

Zweitens hatten sie jedoch das Gefühl, dass die Nutzung von LLMs ihr Lernen tatsächlich beeinträchtigen würde, und sie wollten nicht, dass dies beeinträchtigt wird. Es ist für mich ein großer Trost, dass die Studierenden erkannt haben, dass sie lernen wollen.

Cerys Evans ist Präsident der Studentenvereinigung der Lancaster University. Sie betonte, dass es keinen Grund zur Besorgnis über den Einsatz von LLMs und generativen KI-Tools gebe:

Wir haben mit unseren Studierenden recherchiert. Und wir haben festgestellt, dass viele von ihnen es nutzen. Aber sie nutzen es nicht so, wie wir dachten! Was wir von Studenten sehr laut gehört haben, ist, dass sie es nutzen, um Lücken in ihrem Angebot zu schließen. Sie nutzen es, um Bereiche abzudecken, die in ihrer Vorlesung möglicherweise nicht behandelt wurden oder die sie nicht auf eine Art und Weise behandelt haben, die sie verstanden haben. Oder sie haben möglicherweise keinen Leselisteneintrag zu einem Thema, das sie besonders interessiert.

Kurz gesagt, KI ermöglicht es ihnen, einige Elemente ihrer Kurse intuitiver und selbständiger zu absolvieren. In der Tat ein Beweis für neugierige Köpfe – was zielt die Hochschulbildung doch sicher ab? Sie fuhr fort:

Studierende sind im Allgemeinen nicht daran interessiert, sich durch ihr Studium zu schummeln. Die meiste Zeit gehen wir zur Universität, weil wir unsere Fächer lieben und Fachexperten werden wollen. Wir wollen nützliche Mitglieder der Gesellschaft werden, die Dinge wissen und sich an kritischen Denk- und Bildungsprozessen beteiligen können.

Ich denke, dass wir eine große Änderung unserer Denkweise vollziehen müssen, wenn es darum geht, wie wir Schüler dazu ermutigen, KI auf eine für sie funktionierende Weise zu nutzen. Wie können wir lernen, der KI bessere Fragen zu stellen und bessere Antworten zu erhalten? Ich denke, das ist eine fantastische Entwicklung in einigen Kursen, in denen die Dozenten wirklich die Initiative ergreifen, die Studenten zu fragen und ihnen beizubringen, wie sie effektiver mit KI umgehen können.

Dr. Ailsa Crum ist Direktorin für Mitgliedschaft, Qualitätsverbesserung und Standards bei der Qualitätssicherungsagentur. Sie brachte einen nützlichen und vielleicht übersehenen Punkt zum Ausdruck, warum sich einige andere Schüler möglicherweise gezwungen fühlen, Abkürzungen zu nehmen:

Warum sind einige Studierende in Fällen akademischen Fehlverhaltens tendenziell überrepräsentiert? Was macht manche Schüler angreifbarer? Nun, das könnten Studierende sein, deren Muttersprache nicht Englisch ist, oder Studierende mit Behinderungen [in both cases facing additional pressures and obstacles]. Wir stellen auch fest, dass Studierende, die außerhalb ihrer Bildungserfahrung viele Verpflichtungen haben, unter Druck gesetzt werden können, in ihrem Studium unerwünschte Abkürzungen zu nehmen.

Anders ausgedrückt: Viele Studierende stecken in Schulden fest oder haben Schwierigkeiten, über die Runden zu kommen. Nehmen Sie also viele Stunden Gelegenheitsjobs an, wenn sie sonst lernen oder Kontakte knüpfen würden. Sie hat hinzugefügt:

Noch wichtiger: Was können wir dagegen tun? Mit welchen Tools und Aktivitäten können wir uns beschäftigen? Diese Menschen haben enorme finanzielle Ressourcen aufgegeben, sie investieren ihre Zeit und sie wollen etwas Positives daraus machen. Aber ihre Zeit kann sehr unter Druck stehen. Und das kann zu weniger wünschenswerten Verhaltensweisen führen.

Einstecken

Ausgezeichnete Punkte. Aber passiert jetzt auch in der Bildung etwas Grundlegenderes – etwas, das über den bloßen Einsatz von KI hinausgeht, um die Lücken im traditionellen Lernen zu schließen?

Siehe auch  Wie ChatGPT die Bildung verändert

Conrad Wolfram ist CEO von Wolfram Research. Der ehrwürdige Technologe ist ein langjähriger Verfechter der Idee, dass Bildung – insbesondere Mathematik – für das Computerzeitalter völlig neu gedacht werden muss. (Sein Bruder Stephen gründete das Unternehmen und ist der treibende Kraft hinter der Wissensmaschine Wolfram Alpha und der Mathematica-Software.) Der CEO sagte den Delegierten:

Ich würde es beschreiben [the AI age] als die durch und durch menschlichste industrielle Revolution und wahrscheinlich die schnellste, die es je gab. Und die Schlüsselfragen für uns dabei sind: Was bedeutet es, ein Mensch zu sein? Und was müssen wir lernen? Und das hat natürlich großen Einfluss darauf, wie Universitäten ihre Aufgaben wahrnehmen sollten. Und ihr Zweck.

Um es klar zu sagen: Es gibt zwei widersprüchliche Auswirkungen von KI auf die Hochschulbildung. Da ist was wir brauchen lernen, und Wie wir lernen es. Aber die meiste Diskussion dreht sich um die zweite davon. Es geht nur darum, wie wir das Lernen optimieren, und nicht darum Was wir lernen.

Er sagte, dass KI in dieser Hinsicht einen dringenden Bedarf an Veränderungen herbeiführt und gleichzeitig die Werkzeuge bereitstellt, die dies ermöglichen können:

Was GPT und die breiteren LLMs in diesem Jahr getan haben, ist, eine Brücke zwischen der Computer- und der menschlichen Welt zu schlagen. Nun haben wir diese möglicherweise auf sehr saubere Weise überbrückt.

Ein guter Vergleich für KI in der Geschichte des menschlichen Fortschritts wäre für Wolfram die Nutzung der Elektrizität im 19Th Jahrhundert:

In den 1870er-Jahren galt Elektrizität vermutlich als ein eher schmales Konstrukt. Es gab Glühbirnen und Motoren, aber die Menschen erkannten nicht das Gesamtbild, wie es viele, viele Dinge im Leben verändern würde.

Insbesondere im Bildungssystem glaubt Wolfram, dass die Informatik bald in immer mehr Fächern auf grundlegender Ebene verankert sein wird:

Computerbiologie, Computergeschichte, Computerlinguistik. Es ist sehr wichtig, über die rechnerischen Aspekte praktisch jedes Themas nachzudenken. Dadurch werden traditionelle Aspekte nicht ausgelöscht, aber es wird eine zusätzliche Ebene hinzugefügt. Und wir müssen diese neue Dimension des Denkens reflektieren.

Er fügte hinzu:

Anfang dieses Jahres habe ich einen Blog mit dem Titel „Jetzt sprechen Computer über Menschen, Menschen müssen über Computer sprechen.‘ Ich denke also, dass es jetzt, da generative KI zum Beispiel Code produzieren kann, eine sehr interessante Gegenüberstellung geben wird. Ich denke, wir werden in Zukunft viel mehr Bedarf an Bearbeitung als an reiner Codierung sehen, und das wird die Möglichkeiten grundlegend verändern.

Was hielt er also von der Überzeugung, die zweifellos von vielen Traditionalisten vertreten wird, dass der Einsatz generativer KI durch Studenten kaum mehr als Faulheit oder Betrug darstelle? Er sagte:

Lustigerweise kam dies bei Wolfram Alpha im Jahr 2009 häufig zur Sprache. Meiner Ansicht nach brauchen wir Menschen, die für eine Zukunft lernen, in der wir alle diese Werkzeuge haben – eine gemischte Zukunft aus KI und Mensch. Daher ist es sehr wichtig, dass sie sich gründlich an die Möglichkeiten der Tools gewöhnen, sodass sie die Verantwortung übernehmen müssen, wenn sie sich von ihnen täuschen lassen. Was wir aber nicht wollen, ist Unehrlichkeit, also so zu tun, als hätten Sie das Tool nicht benutzt. Irgendwie müssen wir zwischen diesen beiden Punkten Innovation fördern, aber auch sicherstellen, dass wir Ehrlichkeit fördern.

Meiner Ansicht nach ist ein wichtiger Test: Würden Sie dieses Ding im wirklichen Leben vernünftigerweise für das verwenden, was Sie erreichen möchten? Wenn die Antwort „Ja“ lautet, sollten wir Kurse und Beurteilungen einrichten, um dies zu fördern. Und um sicherzustellen, dass es optimal genutzt werden kann, und gleichzeitig die Person zu ermutigen, das zu lernen, was sie lernen muss. Aber das ist nicht unbedingt das, was sie in der Vergangenheit gelernt hätten.

Dann stellt sich als nächstes die Frage: Werden KI-Nachhilfe und -Bewertung Realität? Und insbesondere: Können wir kostengünstiges, massenhaftes und personalisiertes Lernen erreichen – den Heiligen Gral? Es ist spannend zu sehen, was möglich sein wird.“

Ein berechtigter Punkt. KI kann durchaus genutzt werden, um mehr über den Schüler, seine individuellen Bedürfnisse und bevorzugten Lernmethoden zu erfahren. Dann fügte Wolfram hinzu:

Ein weiterer wichtiger Punkt, über den wir nachdenken sollten, ist: Können wir explizit darüber sprechen, was? Denken bedeutet im KI-Zeitalter? In Lehrplänen und Kursen greifen wir oft nicht zum Nachdenken, weil wir so sehr in das Thema selbst vertieft sind. Wir denken nicht darüber nach, was das ist Denken Teil ist!

Wir sollten die Abstraktion von Denktechniken herausholen und Kreativität und Prozess miteinander verknüpfen. Es gibt diese sehr interessante Idee, dass man einen bestimmten Prozess mit Kreativität verbinden möchte, und es gibt eine lustige menschliche Kreativität, die sich meiner Meinung nach immer von der KI-Kreativität unterscheiden wird. Die besten Ergebnisse erzielt man oft, wenn man diese miteinander verflechtet.

Aber wie sieht es mit Fragen des Vertrauens und der Geschwindigkeit aus – der Eile, mit der viele Menschen diese Tools übernehmen und darauf vertrauen, dass sie genaue Antworten liefern? Er sagte:

Vertrauen im Allgemeinen ist meiner Meinung nach ein entscheidendes Thema für unsere Gesellschaften. Und ich denke, das ist auch für die Universitäten ein wichtiger Punkt, über den sie intensiv nachdenken sollten. Aber ich bin mir nicht sicher, ob uns das in den Gesellschaften besonders gut gelingt. Und wenn neue Technologien auf den Markt kommen, wird es natürlich schwierig, Schritt zu halten. Außerdem gibt es Vertrauen, das mit Vertrauen vermischt ist. Den Menschen das Vertrauen geben, dass sie wirklich Neues erreichen können und dem vertrauen, was ihnen präsentiert wird.

„Außerdem müssen wir über die Überlebensaspekte nachdenken, die wir im KI-Zeitalter brauchen werden. Ob Sie einen anständigen Job haben können. Und was ist der tatsächliche Mehrwert? Wer sind die Top-Leute, die unsere Gesellschaft vorantreiben werden? Es gibt Dinge, die wir jetzt lösen könnten, wie zum Beispiel dieses Problem mit der Massenbildung, das viel Unzufriedenheit hervorruft. Und der Glaube, dass wir mehr davon brauchen, aber es bringt nichts. Das halte ich für entscheidend.

Er schloss:

Was wir vor allem brauchen, ist eine Gesellschaft mit Computerkenntnissen – und ich vergleiche dies mit der Massenkompetenz im 19. Jahrhundert. Wir brauchen jetzt umfassende Computerkenntnisse, aber wir brauchen auch rechnerische Denker, die Spezialisten an der Spitze sind.

Meine Meinung

Eine wichtige Debatte. Aber eine, die auch ihre eigenen Risiken birgt, einschließlich der Tatsache, dass einige in der Gesellschaft – und im Hochschulsystem – außen vor bleiben. Wie Wolfram bemerkte, könnte es bei manchen eine Motivationslücke geben. Er sagte:

Es wird eine Kohorte geben, die Angst bekommt und zurückbleibt. Was wir also tun müssen, ist, so weit wie möglich Vertrauen in das zu entwickeln, was sie tun können, um sich positiv mit KI auseinanderzusetzen. Ein Teil davon besteht darin, das, was wir lernen, so zu ändern, dass wir den Leuten keine Dinge geben, bei denen sie nur trivial betrügen können, und sie einfach herumlaufen lassen, ohne wirklich darüber nachzudenken.

Könnte KI einen neuen Ansatz für die Massenbildung fördern, bei dem die Schüler zu kritischem und eigenverantwortlichem Denken verpflichtet werden? Das könnte ein nützliches und unerwartetes Ergebnis sein, nach Jahren, in denen die Bildung den kritischen Denker nicht begünstigt hat.

Siehe auch  Alain Afflelou fordert ChatGPT heraus – Bild
5/5 - (330 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein