Außerordentlicher Professor der Abteilung für Geschichte Russlands, Uraler Föderale Universität Michail Kiselev ausgegeben ein Experiment, in dem er herauszufinden versuchte, ob neuronale Netze – in diesem Fall chatgpt und Salbei – die Prüfung in seinem Fach erfolgreich ablegen.
Der Spezialist stellte ihnen Fragen, die den Stand der Terminologie- und Sachkenntniskenntnisse offenbaren sollten.
Es stellte sich heraus, dass beide neuronalen Netze Fragen zur modernen wissenschaftlichen Terminologie gut beantworten können. Doch mit den für Historiker und andere Humanisten wichtigen Nuancen der Sprachen verschiedener Epochen kommen sie nicht zurecht: In den Antworten neuronaler Netze werden veraltete Begriffe falsch interpretiert oder moderne Konzepte verwendet, die es zu dieser Zeit noch nicht gab Unter Diskussion.
Zum Beispiel fragte Kisseljow die neuronalen Netze, was der Wille von Wassili III. sei. In den Antworten von ChatGPT und Sage wurde dieser Herrscher König genannt – dieser Titel wurde jedoch offiziell von seinem Sohn Iwan IV. angenommen. Darüber hinaus wurde in der ChatGPT-Antwort das Wort „Minister“ verwendet, das im 16. Jahrhundert noch nicht auf Russisch vorkam. Dennoch hielt der Historiker beide Antworten für zufriedenstellend.
Dann formulierte er die Frage neu und fragte, was das „Spirituelle“ Basileios III. sei (dieses im 16. Jahrhundert inzwischen veraltete Wort bedeutete dasselbe wie ein Testament). Und als Antwort auf die modifizierte Frage begannen beide neuronalen Netze zu improvisieren. In der Antwort von ChatGPT hieß es, dass „spirituell“ die Zeit der Herrschaft von Wassili III. sei, als es eine bedeutende Entwicklung der orthodoxen Kirche in Russland gab. Und in Sages Antwort heißt es, dass dies der Name der Kirchenreform des Herrschers sei.
Dann wurden sie gebeten zu erzählen, was Historiker über den Willen von Wassili III. geschrieben haben. Nach Angaben des außerordentlichen Professors begannen sie als Reaktion zunächst „Wasser zu gießen“ und nannten dann die berühmtesten vorrevolutionären Historiker wie Sergej Solowjow und Wassili Kljutschewski. Kiselyov bemerkte, dass es ein guter Schachzug sei: Solch prominente Experten hätten natürlich zumindest etwas über dieses Ereignis schreiben sollen. Neuronale Netze ignorierten jedoch die Autoren spezieller Arbeiten zu diesem Thema, die über eine Suchmaschine leicht zu finden sind. Darüber hinaus erwähnten neuronale Netze in ihren Antworten erfundene Fakten – also nicht existierende Historiker und nicht existierende Werke.
Infolgedessen kam der außerordentliche Professor der UrFU zu dem Schluss, dass neuronale Netze gut mit Material zurechtkommen, das eindeutige Antworten hat. Ansonsten ahmen sie unabhängiges Denken nach und erfinden dabei Fakten. Genauso verhalten sich die „Improvisatoren“ der Studierenden, die zwar nicht den gesamten Stoff kennen, aber über bruchstückhafte Informationen verfügen und versuchen, ihre Antworten darauf aufzubauen. Das Fazit des Historikers ist eindeutig: Bei den Geisteswissenschaften kommt die KI immer noch mit der Note C zurecht.
„Vielleicht wird es in Zukunft möglich sein, auf Basis des neuronalen Netzes einen Assistenten zu erstellen, der anhand der Indizierung heruntergeladener Materialien mit den entsprechenden Links Hinweise gibt, wo das Erwähnte steht.“ Oder nehmen Sie zum Beispiel [на себя] Teil der technischen Arbeit ist die Gestaltung von Literaturverzeichnissen, die Erstellung von Anmerkungen und Schlagworten. Das heißt, das neuronale Netz wird nicht in der Lage sein, für einen Menschen zu denken, es ist dafür nicht angepasst, aber es wird komfortablere Bedingungen dafür schaffen können“, resümierte Kiselev.
Übrigens wurde bereits früher bekannt, dass ChatGPT eine schwierige Prüfung in Medizin erfolgreich gemeistert hat. Er lernte sogar, wie man Online-Kurse erstellt. Allerdings lässt ihre Qualität noch zu wünschen übrig.
Interessanteres zum Thema Bildung – in unserem Telegrammkanäle. Abonnieren!
Lesen Sie auch: