Die Kontroverse, die durch den Ausstieg, die baldige Rückkehr und dann die triumphale Heimkehr von Sam Altman als CEO von Open AI ausgelöst wurde, hat viele Threads deutlich gemacht, die bisher implizit oder unausgesprochen geblieben waren. Diese Punkte haben erhebliche Konsequenzen für die globale Wissenspolitik, die durch die Forschung rund um generative KI hervorgerufen wird. Dass der Start von chatgpt nichts weniger als eine tektonische Veränderung im Bereich der Informatik war, steht außer Zweifel. Mit über 100 Millionen wöchentlichen Nutzern und steigenden Tendenzen wird die Technologie in den kommenden Tagen keinen Bereich des menschlichen Lebens unberührt lassen. Die Tatsache, dass es den Wettlauf um Konkurrenzprodukte anderer Technologiegiganten (wie z. B google-testing-chatgpt-like-chatbot-apprentice-bard-with-employees.html”>Google, Meta, Amazonas Und apple-to-spend-1-billion-a-year-in-ai-catch-up-efforts-report-.html”>Apfel) sowie unabhängige Start-ups verdeutlichen, wie wichtig diese Technologie für ihr Überleben ist. Während alle Details rund um die Kontroverse noch offen sind, deuten die Aussagen und Handlungen wichtiger Akteure, die Auflösung des früheren Gremiums sowie die Bildung eines neuen Gremiums deutlich auf eine Spaltung zwischen zwei Visionen über die Zukunft der Technologie hin.

Die umsichtige Vision (verbunden mit der Bewegung des effektiven Altruismus), die darauf abzielte, Vorsicht und Sicherheit über Monetarisierung und Innovation zu stellen, konkurrierte mit der scheinbar zentristischen Vision, die Ängste in Bezug auf Sicherheit mildern und gleichzeitig Innovationen beschleunigen wollte, indem sie Schutzmaßnahmen für Risiken und Schäden vorsah. Die Tatsache, dass seine Gründer 2015 beschlossen, es als gemeinnützige Organisation zu gründen und es vor der gewinnorientierten Struktur und dem Druck der Monetarisierung zu schützen, zeigt, dass sie wussten, dass es sich hierbei nicht um eine gewöhnliche Technologie handelte. Aber selbst als die Anfangsphase durch gemeinnützige Mittel finanziert werden konnte, wurde die Unternehmensfinanzierung unabdingbar, da das Versprechen der Innovation immer klarer wurde und der Bedarf an Rechenleistung für deren Skalierung zunahm, was Microsoft dies ermöglichte begehen unglaubliche 10 Milliarden Dollar für das Unternehmen im Januar. Dass sich diese frühe Wette ausgezahlt hat, zeigt sich an einer ganzen Reihe von Programmen und Anwendungen, die Microsoft bereits mithilfe der generativen KI-Technologie von Open AI erweitert oder auf den Markt gebracht hat. Dazu gehören vor allem Copilot, ein KI-Assistent, der inzwischen in allen Microsoft-Produkten (einschließlich des Browsers Edge) integriert ist, und die Chatbot-Funktion in der Suchmaschine Bing. Mit diesen Innovationen liegt das Unternehmen im KI-Wettbewerb vor seinen traditionellen Konkurrenten, darunter Google, das aufgrund seiner weltweiten Dominanz in den Bereichen Suche, Online-Werbung und Android (unter anderem) Microsoft lange Zeit weit hinter sich zu lassen schien.

Siehe auch  Wird nicht jemand an schlechtes ChatGPT denken?

Die daraus resultierende Panik hat zu einem Gerangel um einen Anteil am aufstrebenden Startup-Bereich für generative KI geführt, darunter auch in Anthropisch, gegründet von ehemaligen Open AI-Mitarbeitern, in die sowohl Google als auch Amazon mittlerweile erhebliche Investitionen getätigt haben. Zu diesen Veränderungen gehörte auch eine interne Umstrukturierung innerhalb dieser Unternehmen, um generative KI als nächste digitale Grenze oder, wie Satya Nadella es ausdrückte, „die nächste große Welle der Datenverarbeitung“ zu priorisieren. Was bedeutet diese nächste Welle für die globale Wissensproduktion und alle Schlüsselfragen, mit denen sich Wissenschaftler in Disziplinen wie Medienwissenschaften, internationalen Beziehungen oder Geisteswissenschaften seit langem beschäftigen? Wie müssen sich Kulturen außerhalb und abseits dieser Innovationszentren, die aber wahrscheinlich erheblich von ihnen beeinflusst werden, auf diese bevorstehenden Veränderungen vorbereiten?

Während alle Aspekte unserer digitalen Erfahrung durch diese Technologie verändert werden, ist die vielleicht folgenreichste von allen die Fähigkeit der generativen KI, die auf großen Sprachmodellen basiert, als Orakel unserer Zeit zu fungieren. Seine Prophezeiungen über Fakten von Pizzarezepten bis hin zur molekularen Struktur einer chemischen Verbindung könnten die Natur des Wissens durchaus verändern. Aber wenn man sich mit Themen beschäftigt, die in der Komplexität von Ideologie, Politik, Kultur und Geschichte verwoben sind, könnte es möglicherweise mehr Stürme hervorrufen, als neugierige Köpfe zufriedenzustellen. Die vielen Vorbehalte, die es derzeit machen muss, bevor solche Fragen beantwortet werden, weisen auf die Minenfelder hin, die vor uns liegen, wenn es weiter verbreitet wird. Wenn sich die aktuellen Ziele zur Erreichung einer durchschnittlichen allgemeinen Intelligenz (Average General Intelligence, AGI) verwirklichen, könnten GPTs sehr wohl Suchmaschinen als primäres Mittel zur Durchsicht der Wissensflut des Webs ersetzen. Die Folgen eines solchen Übergangs werden weitreichend sein.

Siehe auch  Der Realismus von KI-Sprachmodellen wie ChatGPT könnte eine Welle überzeugender Betrügereien auslösen, warnt eine Verbrauchergruppe

Durch die Antwort mit einer Liste relevanter Websites, die unsere Anfrage am besten beantworten, erhalten die Google-Suchergebnisse die Illusion aufrecht, dass der Nutzer unseren digitalen Weg mitgestaltet. Dabei lehnen sie auch jede Haftung für die neuen und unbekannten Wege ab, die wir möglicherweise einschlagen. Generative KI mit ihren monovokalen Antworten, die eine endgültige Wissenssynthese anstelle der chaotischen Pluralität der Google-Suchergebnisse liefern, muss bei der Formulierung ihrer Antworten stets Entscheidungen darüber treffen, welche Inhalte einbezogen und welche ausgeschlossen werden sollen. Und trotz aller Vorbehalte und Zweideutigkeiten müssen sie auch zu den brennenden Fragen unserer Zeit Stellung beziehen und in den drängendsten Debatten unserer Zeit Partei ergreifen. Ein zerstrittenes Gemeinwesen wie das Indiens, in dem laufende Debatten über die Vision der Zukunft und Auseinandersetzungen über die Vergangenheit in die immer ungelösten Fragen von Kultur, Identität und Politik verstrickt sind, ist ein Beispiel dafür, dass zu den meisten Dingen eine einzige maßgebliche Darstellung vorliegt (trotz der Vorbehalte und Qualifikationen) werden nur die dringend benötigte Komplexität beseitigen.

Im globalen/internationalen Kontext wirft diese einzigartige, maßgebliche Stimme kritische Fragen auf, beispielsweise nach der Frage, wessen Stimme, wessen Ideologie und wessen Kultur. In einer Welt, in der es von der chaotischen Pluralität der Unterschiede nur so wimmelt, hat die Suche nach allgemein akzeptablen Antworten ausnahmslos einige Perspektiven gegenüber anderen bevorzugt. Der Kampf um konkurrierende Weltanschauungen und Episteme sowie der Widerstand, globale Unterschiede unter singulären Erklärungen zu subsumieren, haben wohl die humanistische Wissenschaft aller Art geprägt. Als die ehemals kolonisierten Nationen des globalen Südens für mehr Gerechtigkeit in der Informations- und Kulturwelt plädierten, war hinter ihren Bitten implizit die Vorstellung verborgen, dass Wissen und Macht untrennbar miteinander verbunden seien und dass kulturelle und symbolische Macht tatsächlich den Boden dafür bereitete hielt länger als körperliche und materielle Kraft. Diese Bitten gewinnen heute an Dringlichkeit.

Siehe auch  Wie die E-Mail-Lösung von rapidMATION OpenAI und ChatGPT nutzt

Wenn das digitale Orakel spricht, von wessen Anstößen und Impulsen wird seine sogenannte „neutrale“ Stimme stärker beeinflusst? Angesichts der Tatsache, dass ihre Antworten auf ihren Trainingsdatensätzen basieren, die zumindest theoretisch das gesamte menschliche Wissen umfassen könnten, könnte es gute Argumente dafür geben, dass die generative KI das Beste allen menschlichen Wissens darstellt. Aber wie dieses andere berühmte Experiment zur Schaffung der „Summe allen menschlichen Wissens“ – Wikipedia – zeigt, kann der digitale Bereich die globalen Ungleichheiten bei der Wissensproduktion in der Offline-Welt bestenfalls widerspiegeln und im schlimmsten Fall verstärken. Große Sprachmodelle können nur aus dem lernen, was bereits online veröffentlicht ist, wodurch diejenigen Wissensformen unmittelbar benachteiligt werden, die nicht digitalisiert wurden oder, schlimmer noch, noch nicht einmal in gedruckter Form existieren (z. B. mündliche Kulturen). Diese Ungleichheiten werden alle Bemühungen der GPTs schwächen, uns das Beste des gesamten menschlichen Wissens zu vermitteln, anstatt sich nur auf eine kleine Teilmenge davon zu beschränken und es als Gesamtmenge zu behandeln.

Sangeet Kumar ist Professorin für Medienwissenschaft an der Denison University und Autorin von „The Digital Frontier: Infrastructures of Control on the Global Web“ (Indiana University Press, 2021).

Haftungsausschluss: Dies sind die persönlichen Meinungen des Autors.

5/5 - (283 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein