Als zu Beginn des Jahres die einfallsreichsten Studenten der Welt erfolgreich mit chatgpt experimentierten und damit alle Arten von Schreibtests absolvierten, von Aufnahmeaufsätzen bis hin zum Verfassen von Abschlussarbeiten in einem breiten Spektrum von Fachgebieten, war die Bildungsgemeinschaft schockiert. Eines der bemerkenswertesten in Russland war die Februar-Geschichte mit einem Studenten der Russischen Staatlichen Universität für Geisteswissenschaften, der verteidigte google.com/document/d/1cGOAqwppMy-nv9d-spxR3GNaaM67CgwrsZLj8YANzmo/edit“ rel=“nofollow noopener noreferrer“ target=“_blank“>Diplom, größtenteils geschrieben von ChatGPT. Nachdem der Student einen ausführlichen Bericht veröffentlicht hatte, begannen die Universitätsbehörden, über Sanktionen bis hin zum Ausschluss zu diskutieren, und zwar nur Intervention Der Minister für Wissenschaft und Hochschulbildung Valery Falkov (wie jetzt klar ist, überraschend weitsichtig) beruhigte die Universitätsleitungen und Lehrkräfte.
Das Problem der akademischen Ehrlichkeit in der High-Tech-Welt ist nicht neu. Vor Jahren beunruhigte das Aufkommen von Smartphones mit Google-Zugriff die Pädagogen und führte zu einem fast weltweiten Verbot der Nutzung mobiler Geräte bei Prüfungen. Die Situation verschlechterte sich während der Pandemie, als die Tests aus der Ferne durchgeführt wurden und es sehr schwierig wurde, den Zugriff des Prüflings auf Netzwerkressourcen zu kontrollieren. Interessanterweise beantwortete ChatGPT selbst die Frage „Warum verbieten Universitäten die Verwendung von Google und anderen Suchmaschinen in Prüfungen?“ gibt eine Antwort, die viele Universitätsprofessoren gerne abonnieren:
„Das Verbot der Nutzung von Google und anderen Suchmaschinen bei Prüfungen an Universitäten hat mehrere Gründe:
1. Akademische Integrität. Es werden Prüfungen abgehalten, um die Kenntnisse und das Verständnis der Studierenden über Lehrmaterialien zu beurteilen. Die Verwendung von Google kann zu Betrug und Plagiaten führen, was dem Zweck der Prüfung zuwiderläuft.
2. Bewertung des Grundwissens. Prüfungen sollen die grundlegenden Kenntnisse und Fähigkeiten der Studierenden überprüfen. Die Verwendung von Google kann dazu führen, dass Studierende zu sehr von externen Quellen abhängig werden, anstatt den Stoff zu lernen und zu verstehen.“
Wie so oft – und wie es sich auch in der Situation mit ChatGPT wiederholt – begannen die Kämpfer gegen die Technologie in den Prüfungen selbst, ihre Hoffnungen auf die Technologie zu setzen, nur jetzt auf Gegentechnologien. Die Richtung der Überwachungssoftware hat eine rasante und rasante Entwicklung erfahren – die Entwicklung und Implementierung von Softwaresystemen in der universitären Praxis, die es Ihnen ermöglichen, einen Studenten zu identifizieren und seine Softwareumgebung zu verwalten, die Richtung seines Blicks zu überwachen (was, wenn er auf den Bildschirm guckt). ein unkontrolliertes Smartphone in der Nähe?) und allgemein das Verhalten des Prüflings. Genau dieser Tradition folgend, setzen inzwischen einige Bildungseinrichtungen auf Texterkennungssysteme, die es ihnen angeblich ermöglichen sollen, die Kreativität neuronaler Netze zu nutzen; Es gab nicht einmal einen kleinen Markt für solche Produkte.
Leider ist die Realität so, dass alle diese Systeme durch einen hohen Prozentsatz falsch positiver Ergebnisse gekennzeichnet sind, und zwar in beide Richtungen. Es ist bemerkenswert, dass, wenn das Unternehmen OpenAI selbst zu Beginn des Jahres lautstark die Entwicklung eines Programms ankündigte, das von neuronalen Netzen erstellte Texte erkennt, dieses Projekt sechs Monate später gekürzt wurde, da sich herausstellte, dass das Ziel darin bestand unerreichbar. Dadurch entstehen ethisch inakzeptable Situationen, wenn völlig gewissenhafte Studierende sanktioniert, zu Rechtfertigungen und dem Nachweis ihrer Urheberschaft gezwungen werden – und gleichzeitig glückliche und geschickte Nutzer generativer Werkzeuge Prüfungen perfekt bestehen.
Es gilt auch, die charakteristischen Eigenschaften des Medienumfelds zu berücksichtigen: Über Verbote und Proteste wird in der Presse und in den sozialen Medien immer intensiver und heller berichtet als nachträgliche Aufhebungen voreiliger emotionaler Entscheidungen. Die ersten Monate des ChatGPT-Booms waren von massiver Empörung unter Lehrern und lautstarken Ankündigungen von Verboten der Nutzung generativer Netzwerke in Schulen und Universitäten begleitet. Gegen Ende des Frühlings tauchten jedoch weniger replizierte und weniger sichtbare Berichte darüber auf, wie nützlich neue generative Produkte sowohl für Lehrer als auch für Schüler waren. So sprach beispielsweise der Leiter des Schulbezirks von New York mit Artikel, in dem er einräumte, dass das unerwartete Erscheinen von ChatGPT die Lehrer überraschte und zu Panik und Zugangsverboten zu ChatGPT in Schulen im Bezirk führte. Doch als die Leidenschaften und Ängste etwas nachließen, wurde klar, dass die neue Technologie solche Perspektiven in der Bildung eröffnet, dass die Verbote aufgehoben werden sollten: „Während die anfänglichen Vorsichtsmaßnahmen gerechtfertigt waren, gehen wir jetzt dazu über, die volle Kraft zu erforschen und zu nutzen.“ der neuen Technologie, ohne dabei die Risiken zu vergessen.“
Telegram-Kanal Forbes.Russia
Kanal über Business, Finanzen, Wirtschaft und Lifestyle
Noch aussagekräftiger ist das Beispiel Australiens, wo die Universitätsgemeinschaft lebt gewarnt Gesetzgeber, dass keine restriktiven Maßnahmen für den Einsatz generativer neuronaler Netze an Universitäten ergriffen werden sollten oder auf der Verwendung von Produkten bestehen sollten, die ihre Arbeit erkennen. Im Gegenteil: Unter Berücksichtigung der Möglichkeiten generativer Algorithmen ist es notwendig, mit der Überarbeitung der Prinzipien und Methoden sowohl des Lernens als auch der Bewertung seiner Ergebnisse zu beginnen. Es ist dieser immer stärker werdende Ansatz, der im neuen Studienjahr auf sehr interessante Auseinandersetzungen und Innovationen hoffen lässt.
An dieser Stelle ist es nützlich, sich daran zu erinnern, dass die derzeit gängigen Methoden zur Wissensbewertung, die von vielen Lehrern und Beamten befürwortet werden, keine tiefe und lange Tradition haben. Schriftliche Prüfungen, die sich von Anfang an als anfällig für KI-Produkte erwiesen haben, sind an sich kein historisches Attribut des Universitätslebens, sondern eher ein relativ junges. antworten Bildungssysteme an die Herausforderungen der Industrialisierung anzupassen. Ein starker Anstieg der Studierendenzahlen um die Wende des 19. Jahrhunderts und die Anforderungen an die Vereinheitlichung der Ausbildung von Ingenieuren für die Entwicklung der industriellen Produktion führten zur Entwicklung rationalisierter und einheitlicher Methoden zur Bewertung der Studienleistungen. Prüfmethoden wie beispielsweise die Teilnahme von Studierenden an öffentlichen Debatten, ihren Vorlesungen oder der Verteidigung von Abschlussarbeiten gehörten allmählich der Vergangenheit an. Dennoch blieben mündliche Prüfungen bis zum Beginn des 20. Jahrhunderts der wichtigste Test für die Leistungen der Schüler in England, als sich schließlich der industrielle Ansatz sowohl in der Industrie als auch im Bildungswesen durchsetzte.
Tatsächlich konzentriert sich die Führung der oben genannten führenden australischen Universitäten darauf – moderne Produktion und modernes Leben erfordern individuell ausgebildete Fachkräfte. Über individuelle Bildungsverläufe wird auf der ganzen Welt schon seit Längerem gesprochen, aber es ist immer noch so. Alle sind sich einig, dass wir in einer postindustriellen Gesellschaft leben, aber gleichzeitig nutzen wir weiterhin ein System des Wissenstransfers und seiner Bewertung, das speziell für die Bedürfnisse einer Industriegesellschaft entwickelt wurde und daher immer weniger angemessen ist. Es ist möglich, dass das Aufkommen von KI-Tools die Erneuerung von Bildungseinrichtungen und den dort verwendeten Lehr- und Prüfungsmethoden beschleunigt und sie an die Anforderungen sowohl der Arbeitgeber als auch der Welt um sie herum anpasst. Und aktive Experimente in diesem Bereich werden erst im kommenden akademischen Jahr beginnen.
Die Meinung der Herausgeber stimmt möglicherweise nicht mit der Sichtweise des Autors überein