In letzter Zeit haben chatgpt und seine Art von „riesigen künstlichen Intelligenzen“ (Bard, Chinchilla, PaLM, LaMDA usw.) oder gAIs mehrere Schlagzeilen gemacht.

ChatGPT ist ein großes Sprachmodell (LLM). Hierbei handelt es sich um eine Art (transformatorbasiertes) neuronales Netzwerk, das hervorragend dazu geeignet ist, das nächste Wort in einer Wortfolge vorherzusagen. ChatGPT verwendet GPT4 – ein Modell, das auf a trainiert wurde Große Textmenge im Internet, das sein Hersteller OpenAI abkratzen und als sicher und sauber zum Trainieren rechtfertigen könnte. Laut GPT4 werden derzeit eine Billion Parameter im Dienst verwendet OpenAI-Websiteum die Schaffung einer „künstlichen allgemeinen Intelligenz, die der gesamten Menschheit dient“ sicherzustellen.

Dennoch lassen gAIs keinen Raum für demokratischen Input: Sie werden von oben nach unten entworfen, mit der Prämisse, dass das Modell die kleineren Details selbst erfasst. Für diese Systeme sind viele Anwendungsfälle vorgesehen, darunter RechtsberatungLehrende, Generierung politischer Vorschläge und sogar wissenschaftliche Erkenntnisse liefern. gAIs sollen somit ein Werkzeug sein, das das automatisiert, was bisher als nicht automatisierbar galt: Wissensarbeit.

Was ist „Hochmoderne“?

In seinem 1998 erschienenen Buch Sehen wie ein StaatJames C. Scott, Professor an der Yale University, befasst sich mit der Dynamik nationalstaatlicher Macht, sowohl demokratischer als auch nichtdemokratischer, und ihren Folgen für die Gesellschaft. Staaten versuchen, das Leben ihrer Bürger zu verbessern, aber wenn sie ihre Politik von oben nach unten entwerfen, reduzieren sie oft den Reichtum und die Komplexität der menschlichen Erfahrung auf das, was quantifizierbar ist.

Die aktuelle treibende Philosophie der Staaten ist laut Prof. Scott der „Hochmodernismus“ – ein Glaube an Ordnung und messbaren Fortschritt. Er argumentiert, dass diese Ideologie, die fälschlicherweise behauptet, wissenschaftlich fundiert zu sein, oft lokales Wissen und gelebte Erfahrungen ignoriert, was zu katastrophalen Folgen führt. Er führt das Beispiel von Monokulturplantagen im Gegensatz zu Mehrfruchtplantagen an, um zu zeigen, wie eine Top-Down-Planung die regionale Vielfalt in der Landwirtschaft nicht berücksichtigen kann.

Siehe auch  Bei der E-Mail Ihres Arztes könnte es sich tatsächlich um ChatGPT handeln – und es besteht eine gute Chance, dass Sie es nie erfahren

Die Folge dieses Scheiterns ist die langfristige Zerstörung von Böden und Lebensgrundlagen. Dies ist das gleiche Risiko, dem sich die Wissensarbeit jetzt angesichts von gAIs gegenübersieht.

Warum ist Hochmodernismus ein Problem bei der Gestaltung von KI? Wäre es nicht großartig, einen One-Stop-Shop, ein Amazon für unsere intellektuellen Bedürfnisse zu haben? Amazon liefert übrigens ein klares Beispiel für die Probleme, die sich aus dem Mangel an vielfältigen Optionen ergeben. Ein solches Geschäftsmodell führt nur zu einer stärkeren Standardisierung und nicht zu Nachhaltigkeit oder Handwerkskunst, und folglich hat jeder die gleichen billigen Standardprodukte, während die örtlichen Kleinstadtläden sterben langsamer Tod um tausend Klicks.

Was abstrahieren riesige KIs?

Ebenso wie das Aussterben lokaler Geschäfte könnte auch der Aufstieg von gAIs dazu führen Verlust von Sprachen, was die Vielfalt unserer Gedanken beeinträchtigen wird. Das Risiko eines solchen Sprachverlusts ist auf die Verzerrung zurückzuführen, die durch Modelle hervorgerufen wird, die nur auf die Sprachen trainiert werden, die bereits im Internet verbreitet sind, also viel Englisch (~60 %). Es gibt andere Arten, wie ein Modell ist wahrscheinlich voreingenommen seineinschließlich zu Religion (z. B. mehr Websites predigen das Christentum als andere Religionen), Geschlecht und Rasse.

Gleichzeitig sind LLMs unverhältnismäßig effektiv darin, verständliche Antworten zu geben. Science-Fiction-Autor Ted Chiang schlägt vor dass dies wahr ist, weil ChatGPT ein „verschwommenes JPEG“ des Internets ist, aber eine treffendere Analogie könnte die eines Atlas sein.

Ein Atlas ist eine großartige Möglichkeit, die ganze Welt in Schnappschüssen zu sehen. Allerdings mangelt es einem Atlas an Multidimensionalität. Ich habe zum Beispiel ChatGPT gefragt, warum es eine schlechte Idee ist, Eukalyptusbäume im Land zu pflanzen Bezirk West-Medinipur. Es nannte mir mehrere Gründe, warum Monokultur-Plantagen schlecht sind, lieferte aber nicht den wahren Grund, warum die Menschen in der Gegend dagegen waren: Eine Monokultur-Plantage reduzierte die Nahrung, die sie sammeln konnten.

Siehe auch  Microsoft schafft es nicht, die Dominanz von Google mit Bing ChatGPT zu beeinflussen

Solche Ortskenntnisse entstehen nur durch Erfahrung. Wir können das „Gebietskenntnis“ nennen. Dieses Wissen wird von GAIs zugunsten der Atlasansicht aller im Internet vorhandenen Inhalte abstrahiert. Das Territorium kann nur von den Leuten erobert werden, die die Aufgaben erfüllen, die gAIs sind versuchen zu ersetzen.

Kann Vielfalt helfen?

Ein Teil des Scheiterns bei der Eroberung des Territoriums zeigt sich im mangelnden Verständnis der gAIs. Wenn Sie sorgfältig darauf achten, was Sie von ihnen verlangen (eine Leistung, die „Prompt Engineering“ genannt wird – ein Beispiel für eine Technologie, die die Ökologie unseres Verhaltens verändert), können sie eindrucksvolle Antworten formulieren. Wenn Sie dieselbe Frage jedoch auf eine etwas andere Art und Weise stellen, erhalten Sie völligen Blödsinn. Dieser Trend hat Informatiker dazu veranlasst, diese Systeme zu nennen Stochastische Papageien – also Systeme, die Sprache nachahmen können, sich aber zufällig verhalten.

Es gibt auch positive Forschungsrichtungen. Zum Beispiel, BLÜHEN ist ein Open-Source-LLM, das von Wissenschaftlern mit öffentlichen Geldern und mit umfassender Filterung der Trainingsdaten entwickelt wurde. Dieses Modell ist außerdem mehrsprachig, darunter 10 indische Sprachen sowie eine Aktives Ethik-Team Dadurch wird die Nutzungslizenz regelmäßig aktualisiert.

Es gibt mehrere Möglichkeiten, den von gAIs ausgehenden Risiken entgegenzuwirken. Eine davon besteht darin, den Fortschritt bei der Kommerzialisierung von KI künstlich zu verlangsamen, um Zeit für demokratische Beiträge zu schaffen. (Zehntausende Forscher haben es bereits getan eine Petition unterzeichnet in diesem Sinne).

Ein weiterer Grund besteht darin, sicherzustellen, dass unterschiedliche Modelle entwickelt werden. „Vielfalt“ impliziert hier mehrere Lösungen für dieselbe Frage, so wie unabhängige Kartographen unterschiedliche Atlanten mit unterschiedlichen Anreizen erstellen: Einige konzentrieren sich auf die Flora, andere auf die Fauna. Der Forschung zum Thema Diversität legt nahe, dass das Ergebnis umso besser ist, je mehr Zeit vergeht, bis eine gemeinsame Lösung gefunden wird. Und ein besseres Ergebnis ist von entscheidender Bedeutung, wenn man sich mit den Herausforderungen befasst, die mit künstlicher allgemeiner Intelligenz verbunden sind – einem Forschungsbereich, in dem ein Drittel der Forscher glaubt, dass dies zu einem Ergebnis führen kann Katastrophe auf nuklearer Ebene.

Siehe auch  „ChatGPT bezieht sich auf unseren menschlichen Zustand“

Wie kann bloßes „Unterstützen und Verbessern“ schädlich sein?

Um es klarzustellen: Ich habe diesen Artikel geschrieben, nicht ChatGPT. Aber ich wollte überprüfen, was darin steht …

„F: Schreiben Sie eine Antwort auf den vorhergehenden Text als ChatGPT.

A: Als ChatGPT bin ich ein Werkzeug, das dazu gedacht ist, menschliche Fähigkeiten zu unterstützen und zu erweitern, nicht sie zu ersetzen; Mein Ziel ist es, Ihre Aufforderungen zu verstehen und darauf zu reagieren, und nicht, den Reichtum und die Vielfalt des menschlichen Wissens und der Erfahrung zu ersetzen.“

Doch wie der Schriftsteller George Zarkadakis Leg es„Jede Augmentation ist auch eine Amputation.“ ChatGPT & Co. Sie können „unterstützen und erweitern“, aber gleichzeitig reduzieren sie die Vielfalt der Gedanken, Lösungen und des Wissens, und sie tun dies derzeit ohne den Input der Menschen, die sie nutzen sollen.

Dies ist ein Premium-Artikel, der ausschließlich unseren Abonnenten zur Verfügung steht. Jeden Monat mehr als 250 solcher Premium-Artikel lesen

Sie haben Ihr kostenloses Artikellimit ausgeschöpft. Bitte unterstützen Sie Qualitätsjournalismus.

Sie haben Ihr kostenloses Artikellimit ausgeschöpft. Bitte unterstützen Sie Qualitätsjournalismus.

Du hast gelesen {{data.cm.views}} aus {{data.cm.maxViews}} kostenlose Artikel.

Dies ist Ihr letzter kostenloser Artikel.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein