Das Aufkommen von Sprachmodellen – LLMmarkiert eine Weiterentwicklung unserer Integration von KI und wirft Fragen über die Zukunft der Beschäftigung und die Beziehung zwischen Mensch und Maschine auf.

Wenn bestimmte Ängste berechtigt sind, sollten sie unsere Vision der Zukunft nicht verdecken: In diesem Sinne trägt es nur dazu bei, unsere Ängste nach Lust und Laune der immer klarer werdenden Maschine weiter zu schüren, wenn wir uns weiterhin im Wettbewerb mit der Maschine positionieren und so handeln wie sie Beweise dafür, dass ein solcher Wettbewerb verloren geht. Anstatt dem Misstrauen nachzugeben, muss jeder die Chance nutzen, die uns die KI bietet, um uns wieder auf das zu konzentrieren, was das Wesen unserer Menschlichkeit ausmacht. Ob im Design oder in der Anwendung: Das Verständnis der Funktionsweise dieser Modelle und ihrer Unterschiede zum menschlichen Gehirn sowie die Einleitung einer Neupositionierung unseres Fachwissens eröffnen hervorragende Perspektiven.

Ein „menschliches“ Training chatgpt überrascht mit seiner Fähigkeit, Reaktionen hervorzurufen, deren Natürlichkeit an die von Männern erinnert – und die so weit geht, einen immer ausgeprägteren Anthropomorphismus auszulösen. Es lohnt sich, sich an die Bedeutung zu erinnern, die im Gegensatz zu vielen anderen Modellen (z. B. BERT) menschlichem Fachwissen bei der Ausbildung beigemessen wird ). In diesem Sinne erfordert das ChatGPT-Training zusätzlich zum Sprachverstecken, das darin besteht, Wörter in verschiedenen Sätzen zu verbergen und dem Modell die Aufgabe zu übertragen, die verborgenen Wörter zu entdecken, die Ergebnisse nach verschiedenen Kriterien wie Relevanz von Antworten und Ethik zu bewerten und Respekt vor menschlichen Werten. Sobald dieser erste Schritt abgeschlossen ist, wird Reinforcement Learning eingesetzt, um die Leistung des Modells zu verbessern: Dabei besteht das Prinzip darin, dem Modell je nach seinen Aktionen positive oder negative Belohnungen zu geben. Durch die Integration dieser Belohnungen lernt das Modell die Regeln und die richtigen Reaktionsstrategien. Im Fall von ChatGPT gilt: Je mehr die generierten Antworten mit denen des Belohnungsmodells, das menschliche Vorlieben gelernt hat, kompatibel sind, desto mehr wird das Modell belohnt. Dieser Designprozess zeigt auch die Bedeutung von menschliches Fachwissen im Training, um Leistung und Ethik sicherzustellen. Models, die diese menschlichen Vorlieben nicht in ihr Training einbeziehen, haben daher weiterhin Schwierigkeiten, so gute Leistungen wie eine Person zu erbringen. Beispielsweise zeigen aktuelle Untersuchungen von Meta, dass: (1) LLMs dank der Sprachmaske in der Lage sind, eine Darstellung von Wörtern zu konstruieren, indem sie den engen Kontext berücksichtigen, wie es das Gehirn kann, (2) das Gehirn jedoch dazu in der Lage ist diese erste Darstellungsebene durch die Berücksichtigung eines zeitlichen Kontexts und einer größeren Hierarchie zu bereichern, um ein umfassenderes Verständnis des Textes aufzubauen. LLMs, die keine auf menschlichen Präferenzen basierenden Verstärkungsschritte beinhalten, sind daher nicht in der Lage, dieses anspruchsvolle Verständnis zu erreichen.

Siehe auch  ChatGPT ist bei der Behandlung von Depressionen besser als Hausärzte, da es nicht durch Klasse und Geschlecht beeinflusst wird

Darüber hinaus sind LLMs Stochastische Papageien die darauf basieren Wahrscheinlichkeitenund haben keine Kapazitäten für die Planung, das Bewusstsein oder die Aktualisierung von Informationen. Beispielsweise werden die Informationen, die uns erreichen (z. B. das Ergebnis eines Spiels), von unserem Gehirn sofort aktualisiert, um unsere Fähigkeit zu optimieren, zukünftige Ereignisse vorherzusagen. Wenn wir also von Informationen überrascht werden, der Hippocampus – Struktur des Gehirns, die mit dem Gedächtnis verbunden ist, versteht, dass es an der Zeit ist, die Informationen neu zu strukturieren, und wechselt von einem Modus der Bewahrung zu einem Modus der Aktualisierung. LLMs verfügen nicht über diese Plastizität: Da sie aus Milliarden von Parametern bestehen, ist es unmöglich zu wissen, welcher Parameter aktualisiert werden muss, um die Informationen zu aktualisieren, und eine vollständige Neuschulung wäre kostspielig. Ein Teil der LLM-Forschung widmet sich daher der Überschreitung dieser Grenzen, um den Differenzierungskapazitäten des Gehirns möglichst nahe zu kommen.

Ia

Eine Erneuerung unseres Fachwissens

Auf aufgeklärte Weise eingesetzt und ergänzend zu unseren eigenen Qualitäten, generative KI und LLMs können unsere Fähigkeiten erheblich verbessern. Von MIT-Forschern veröffentlichte Forschungsergebnisse, die den Einfluss von ChatGPT auf die Leistung von Facharbeitern bei Schreibaufgaben untersuchen, zeigen, dass die Verwendung von ChatGPT Folgendes ermöglicht: (1) die Aufgabe zu erledigen Plus schnell(2) Inhalte erstellen, die als solche gelten beste Qualität in Bezug auf Schrift, Inhalt und Originalität, und (3) die zu verbessern Zufriedenheit Arbeiter, um die Aufgabe zu erledigen. Auch wenn das Tool es Hochleistungsarbeitern ermöglichte, schneller zu arbeiten, ermöglichte es vor allem anderen, die zunächst über geringere Kapazitäten verfügten, die Qualität ihrer Produktion zu steigern, bis zu dem Punkt, dass die Leistungslücke zwischen den Schlechtesten und den Besten verringert wurde. Auch andere Untersuchungen konnten die Fähigkeit der KI zur Verbesserung individueller Entscheidungen oder die Fähigkeit von Menschen und KI, sich gegenseitig zu bereichern, hervorheben. Diese Erkenntnisse erfordern die Förderung einer verteilten Kognition, die den Bedarf an menschlichem Fachwissen in einer durch KI erweiterten Welt bekräftigt. Wenn KI in diesem Sinne ein großer technologischer Durchbruch ist, stellt sie vor allem eine menschliche Revolution dar und erfordert eine wesentliche Veränderung unserer Metakognition, unserer Bescheidenheit und unserer Beziehung zur Welt. Letztlich verändern Technologien keine Gesellschaften – es ist ihre Wiederaneignung durch den Menschen, die sie weiterentwickeln lässt.

Siehe auch  Einsatz von Technologie zur Essensplanung: ChatGPT und BuzzFeed

Um dies zu erreichen, ist es notwendig, unsere eigenen intellektuellen Grenzen und unsere Komplementarität mit der KI zu verstehen, unsere Neugier statt unseren Stolz zu bekräftigen oder sogar zu lernen, die richtigen Fragen zu stellen. Jeder muss daher auf seiner emotionalen Reise sein kritisches Denken entwickeln, um die potenziellen Vorurteile einer KI, aber auch seine eigenen menschlichen Vorurteile verstehen zu können. Die Frage ist nicht, ob KI perfekt ist, sondern ob sie es besser kann als der menschliche Status quo. Die intellektuelle Emanzipation wird dann zu einem wesentlichen Hebel, um ein aufgeklärtes Verständnis für das Potenzial der KI, aber auch für ihre Grauzonen zu entwickeln. In diesem Sinne eröffnet KI außergewöhnliche Möglichkeiten des Zugangs zu Wissen für alle und zielt darauf ab ein Lernhebel außergewöhnlich. Es liegt an uns, diese Vermögenswerte in konkrete und nutzbringende Maßnahmen umzuwandeln: Das ist unser Anteil an Menschlichkeit und Fachwissen. Die eigentliche Bedrohung liegt also nicht in der KI selbst, sondern darin, dass wir versuchen, uns in einen Automaten zu verwandeln: Einen Vorteil gegenüber den Maschinen zu wahren bedeutet vor allem, nicht so zu handeln. Daher ist es für uns als Menschen an der Zeit, den wahren Platz unseres Fachwissens, unserer Arbeit und unserer Menschlichkeit wirklich zu verstehen und neu zu definieren.

Ein Kommentar von Emeric Kubiak, Head of Science @AssessFirst

>>

4.9/5 - (58 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein