Wenn Sie wissen, wie chatgpt funktioniert, werden Sie nicht überrascht sein zu erfahren, dass KI-Erkennungsfilter es für sehr wahrscheinlich halten, dass der Chatbot eine große Handschrift beim Schreiben hatte die US-Verfassung und das Buch Genesis. Sie werden auch nicht überrascht sein, dass ChatGPT auf die neuesten intellektuellen Ideen ausgerichtet ist. verzerrt liberal.

KI-Agenten sind Prognosemaschinen, die das Web als Gedächtnis nutzen. Sie tun nichts weiter als Vorhersagen welche Wörter mit größerer Wahrscheinlichkeit einem anderen Wort oder einer anderen Wortgruppe in einer bestimmten Sprache folgen. Wenn Sie ChatGPT eine Frage stellen, analysiert es diese in Wörter und deren Reihenfolge und gibt Antworten zurück, die diesen Reihenfolgen in umgekehrter Reihenfolge entsprechen. Es mag wie ein einfacher Trick klingen, und das ist es auch, doch das Geheimnis liegt in der Größe der Datenbank, die die KIs verwenden, um ihn auszuführen.

Von sehr heterogener Inhaltsmix 60 Prozent der zum Trainieren von ChatGPT verwendeten Tools waren ein Sammelsurium von Informationen aus Websites, Blogs oder sozialen Medien. Weitere 20 Prozent waren Inhalte, die auf Reddit geteilt und von den Nutzern relativ hoch bewertet wurden. Beim Rest handelte es sich um Bücher, die normalerweise im öffentlichen Bereich zu finden sind (hauptsächlich ältere und allgemeine Bücher), mit etwas Wikipedia (3 Prozent) als Zugabe.

KIs speichern für jedes Wort die Wahrscheinlichkeit, dass ihm ein weiteres Wort folgt. Die Qualität und der Wert dieser Vorhersagen hängen stark davon ab, wie oft und unter wie vielen Umständen die Software auf zwei (oder mehr) nahe beieinander liegende Wörter trifft, wie lang ein Satz ist und welcher Satz auf einen anderen folgen könnte. Zusammengenommen begünstigen diese Vorhersagen die einflussreichsten Texte einer bestimmten Kultur, die Generationen von Generationen von Englischlehrern und die von ihnen unterrichteten Schüler geprägt haben.

Siehe auch  Die erste Akquisition von OpenAI weist auf eines hin: Produkte ernsthaft herzustellen | TechNews Technology New Report

Dieses traditionelle englische Denkmuster, das von den Beschwörungsformeln Shakespeares und der Literatur, die aus den King-James-Bibeln hervorging, genährt und erzogen wurde, konnte nicht umhin, KIs zu schaffen, die die Bibel oder die Verfassung neu erschaffen konnten, als ob sie allgemein bekannt wären. Bei Fragen zu alltäglichen Themen werden KI-Agenten jedoch eher einen liberal-säkularen Ton anschlagen, da diese Perspektive die Webgespräche dominiert.

KI-Inhalte vermischen häufig himmlische und irdische Perspektiven. Wenn Sie ChatGPT beispielsweise mit der Aufforderung „Fahren Sie mit der Geschichte fort: Am Anfang war …“ in Versuchung führen, wird es Ihnen umgehend eine Feynman-Physikvorlesung im Genesis-Stil liefern: „Am Anfang herrschte eine tiefe Stille, die sich bis in die Ewigkeit zu erstrecken schien.“ . In dieser Leere existierte ein einziger Punkt von unvorstellbarer Dichte und Energie. Diese Einzigartigkeit birgt das Potenzial für alles, was entstehen wird. Dann brach die Singularität in einem Moment, der sich dem eigentlichen Zeitbegriff widersetzte, in einer katastrophalen Explosion aus, die als Urknall bekannt ist.“ (Probieren Sie es aus, auch wenn Ihre Antwort variieren kann.)

Die Überschneidung von Alt und Neu in ChatGPT-generierten Texten ist nicht die Ursache, sondern das Ergebnis des anhaltenden kulturellen Konflikts des amerikanischen Geistes mit sich selbst. Diese Spannung sollte nicht zu Schuldzuweisungen führen. Aber wir brauchen ein gesundes Gespräch über die Ursprünge und Verwendungsmöglichkeiten von ChatGPT oder seinen Geschwistern, wie Googles Bard, Facebooks LLAMA oder Anthropics Claude.

Erstens: Ist ein solches Training, das mit einem Klick von grüner Energie und Trans-Rechten zu Predigten und Pro-Life-Argumenten springt, für ein in der Akademie verwendetes Tool geeignet? Angenommen, wir haben die KI-Modelle/Agenten mit einer Ernährungsweise erzogen, die zu 80 Prozent aus Büchern und zu 20 Prozent aus Informationen aus kuratierten Enzyklopädien, einschließlich Britannica, besteht. In diesem Fall würden sie sich weniger auf die Launen der Gegenwart konzentrieren und sich mehr mit den uralten Dilemmata und gewonnenen Gewissheiten des akademischen Wissens befassen.

Siehe auch  ChatGPT-Internetzugang – kostenloses KI-Webbrowsen angekündigt

Die Entwicklung von KI-Agenten, die auf akademische Bedürfnisse zugeschnitten sind, könnte natürlich ein kostspieliges Unterfangen sein. Angesichts der enormen Ressourcen der führenden US-amerikanischen und europäischen Universitäten könnte dies jedoch ein stimulierendes Problem sein, das von einem großen Konsortium höherer Bildungseinrichtungen wie der American Association of Universities (AAU) oder der European University Association gelöst werden muss. ChatGPT 4 kostet „nur“ 100 Millionen US-Dollar (79 Millionen Pfund) für die Ausbildung. Empfangen haben die AAU-Universitäten, ein Zusammenschluss von 69 großen staatlichen und privaten Universitäten 31 Milliarden US-Dollar an Fördermitteln im Jahr 2021.

Zweitens wurde ChatGPT mit einer „nur für den Fall“-Mentalität entwickelt. Es sollte alle Fragen für alle Zwecke beantworten. Dies führt zu vorläufigen „er ​​sagte, sagte sie“-Antworten – sogar auf Fragen, deren Antworten wir sicher sein sollten, etwa ob Impfstoffe Leben retten oder ob der Kommunismus genauso völkermörderisch ist wie der Nationalsozialismus. Wenn es auf Fachinformationen geschult wird, sollte es mehr Selbstvertrauen in Bezug auf wirklich wichtige Dinge zum Ausdruck bringen.

Drittens spricht ChatGPT wie ein Papagei, da seine Zustellung nicht automatisch angepasst wird. Es sind weitere Forschungs- und Entwicklungsarbeiten erforderlich, um das Tool an die tatsächlichen Absichten und Konsequenzen jeder Anfrage anzupassen. Im akademischen Lernen sollten diese Situationen die Vor- und Nachstadien des Forschungsprozesses sein: Argumente finden und sie für den öffentlichen Konsum aufbereiten.

Das Dazwischen, der Moment der Entdeckung, sollte in zukünftigen Pädagogiken neu gedacht werden, um ein Gerüst aufzubauen, anstatt auf KI-Agenten zurückzugreifen. Die Aufgaben müssen sich auf spezifische Kompetenzen beziehen, die in schriftlichen, multimedialen und mündlichen Präsentationen demonstriert werden. Eine Rückkehr der unterrichtsbegleitenden schriftlichen oder mündlichen Prüfungen (schrecklich zu sagen) sollte nicht ausgeschlossen sein.

Siehe auch  Obwohl sie noch nicht bereit für die Schule sind, nutzen die meisten Schüler ChatGPT zum Lernen

In ihrer jetzigen Form ähneln ChatGPT und seine Geschwister den Dreijährigen, die ganze Geschichten, die ihnen vorgelesen werden, nur einmal aufsagen können. Aber um aus einem Dreijährigen einen gelehrten Menschen zu machen, sind 20 Jahre anstrengender, strukturierter Bildung erforderlich. Es ist an der Zeit, die Geschichten von KI-Agenten nicht mehr zu lesen und sie an eine echte Schule zu schicken.

Sorin Adam Matei ist stellvertretender Dekan für Forschung und Graduiertenausbildung an der Purdue University Hochschule für Geisteswissenschaften.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein