Im Juni 2022 machte der google-Ingenieur Blake Lemoine Schlagzeilen, als er behauptete, der LaMDA-Chatbot des Unternehmens habe Empfindungsvermögen erlangt. Die Software hatte die Konversationsfähigkeit eines frühreifen Siebenjährigen, sagte Lemoineund wir sollten annehmen, dass es ein ähnliches Weltbewusstsein besaß.

LaMDA, später der Öffentlichkeit zugänglich gemacht als Bardebasiert auf einem „großen Sprachmodell“ (LLM), das auch die Engine des chatgpt-Bots von OpenAI bildet. Andere große Technologieunternehmen beeilen sich, ähnliche Technologien einzusetzen.

Hunderte Millionen Menschen hatten inzwischen die Möglichkeit, mit LLMs zu spielen, aber nur wenige scheinen zu glauben, dass sie sich dessen bewusst sind. Stattdessen Linguist und Datenwissenschaftler Emily Benders poetischer Satz, es sind „stochastische Papageien“, die überzeugend plappern, ohne es zu verstehen. Aber wie sieht es mit der nächsten und der nächsten Generation von Systemen der künstlichen Intelligenz (KI) aus?

Unser Team aus Philosophen, Neurowissenschaftlern und Informatikern hat sich mit aktuellen wissenschaftlichen Theorien zur Funktionsweise des menschlichen Bewusstseins befasst, um eine zu erstellen Liste der grundlegenden Recheneigenschaften die jedes hypothetisch bewusste System wahrscheinlich besitzen müsste. Unserer Ansicht nach kommt kein aktuelles System auch nur annähernd an die Messlatte für Bewusstsein heran – aber gleichzeitig gibt es keinen offensichtlichen Grund, warum zukünftige Systeme nicht wirklich bewusst werden.

Indikatoren finden

Seit der Computerpionier Alan Turing 1950 sein „Imitation Game“ vorschlug, wird die Fähigkeit, sich in Gesprächen erfolgreich als Mensch auszugeben, oft als zuverlässiger Marker für Bewusstsein angesehen. Dies liegt normalerweise daran, dass die Aufgabe so schwierig erscheint, dass sie Bewusstsein erfordern muss.

Siehe auch  ChatGPT in industriellen Anwendungen | von Paulina Szyzdek | Juli 2023

Allerdings wie beim Schachcomputer Deep Blue aus dem Jahr 1997 Niederlage von Großmeister Gary Kasparov, die Konversationskompetenz von LLMs könnte die Zielpfosten verschieben. Gibt es eine prinzipielle Herangehensweise an die Frage des KI-Bewusstseins, die nicht auf unserer Intuition darüber beruht, was an der menschlichen Kognition schwierig oder besonders ist?


Weiterlesen: Ein Google-Softwareentwickler glaubt, dass eine KI empfindungsfähig geworden ist. Wenn er recht hat, woher sollen wir das wissen?


Unser aktueller weißes Papier zielt darauf ab, genau das zu tun. Wir haben aktuelle wissenschaftliche Theorien darüber verglichen, was Menschen bewusst macht, um eine Liste von „Indikatoreigenschaften“ zusammenzustellen, die dann auf KI-Systeme angewendet werden könnten.

Wir glauben nicht, dass Systeme, die über die Indikatoreigenschaften verfügen, definitiv bewusst sind, aber je mehr Indikatoren, desto ernster sollten wir Behauptungen über KI-Bewusstsein nehmen.

Die Rechenprozesse hinter dem Bewusstsein

Nach welchen Indikatoren haben wir gesucht? Wir haben offensichtliche Verhaltenskriterien – wie etwa die Fähigkeit, Gespräche mit Menschen führen zu können – vermieden, da diese in der Regel sowohl auf den Menschen ausgerichtet sind als auch leicht zu fälschen sind.

Stattdessen haben wir uns mit Theorien über die Rechenprozesse befasst, die das Bewusstsein im menschlichen Gehirn unterstützen. Diese können uns Aufschluss über die Art der Informationsverarbeitung geben, die zur Unterstützung subjektiver Erfahrungen erforderlich ist.

„Global-Workspace-Theorien“ postulieren beispielsweise, dass Bewusstsein durch das Vorhandensein eines kapazitätsbegrenzten Engpasses entsteht, der Informationen aus allen Teilen des Gehirns sammelt und Informationen auswählt, um sie global verfügbar zu machen. „Rekurrente Verarbeitungstheorien“ betonen die Rolle des Feedbacks von späteren Prozessen zu früheren.

Jede Theorie schlägt wiederum spezifischere Indikatoren vor. Unsere endgültige Liste enthält 14 Indikatoren, die sich jeweils auf einen Aspekt der Funktionsweise von Systemen konzentrieren arbeiten und nicht wie sie benehmen.

Kein Grund zu der Annahme, dass aktuelle Systeme bewusst sind

Wie schneiden aktuelle Technologien ab? Unsere Analyse legt nahe, dass es keinen Grund zu der Annahme gibt, dass aktuelle KI-Systeme bewusst sind.

Siehe auch  Das chinesische iFlytek stellte ein eigenes Analogon des Chatbots ChatGPT vor

Einige erfüllen einige der Indikatoren. Systeme nutzen die Transformer-Architektur, eine Art maschinelles Lernmodell dahinter ChatGPT und ähnliche Toolserfüllen drei der „Global Workspace“-Indikatoren, verfügen jedoch nicht über die entscheidende Fähigkeit zur globalen Weiterverbreitung. Auch die meisten anderen Indikatoren erfüllen sie nicht.

Trotz der beeindruckenden Konversationsfähigkeiten von ChatGPT ist also wahrscheinlich niemand zu Hause. Auch andere Architekturen erfüllen bestenfalls eine Handvoll Kriterien.


Weiterlesen: Nicht alles, was wir KI nennen, ist tatsächlich „künstliche Intelligenz“. Folgendes müssen Sie wissen:


Die meisten aktuellen Architekturen erfüllen höchstens einige der Indikatoren. Für die meisten Indikatoren gibt es jedoch mindestens eine aktuelle Architektur, die diese Anforderungen erfüllt.

Dies deutet darauf hin, dass es keine offensichtlichen prinzipiellen technischen Hindernisse für den Aufbau von KI-Systemen gibt, die die meisten oder alle Indikatoren erfüllen.

Es ist wahrscheinlich eine Frage von Wann statt Wenn Es wird ein solches System gebaut. Wenn das passiert, bleiben natürlich noch viele Fragen offen.

Jenseits des menschlichen Bewusstseins

Die von uns vertretenen wissenschaftlichen Theorien (und die Autoren der Arbeit!) stimmen nicht immer miteinander überein. Um dieser Tatsache Rechnung zu tragen, haben wir eine Liste von Indikatoren anstelle strenger Kriterien verwendet. Dies kann angesichts der wissenschaftlichen Unsicherheit eine wirkungsvolle Methode sein.

Wir wurden von ähnlichen Debatten über das Tierbewusstsein inspiriert. Die meisten von uns glauben, dass zumindest einige nichtmenschliche Tiere bei Bewusstsein sind, obwohl sie nicht mit uns über ihre Gefühle sprechen können.

Ein 2021 Bericht von der London School of Economics, der argumentiert, dass Kopffüßer wie Kraken wahrscheinlich Schmerzen empfinden, war maßgeblich daran beteiligt bei der Änderung der britischen Tierethikpolitik. Eine Fokussierung auf strukturelle Merkmale hat die überraschende Konsequenz, dass selbst einige einfache Tiere, wie Insekten, möglicherweise sogar eine minimale Form von Bewusstsein besitzen.

Siehe auch  ChatGPT am Arbeitsplatz – ein rechtliches Minenfeld! Was Sie wissen müssen, um Ihr Unternehmen zu schützen | Mitchell, Williams, Selig, Gates & Woodyard, PLLC

Unser Bericht gibt keine Empfehlungen, was mit bewusster KI zu tun ist. Diese Frage wird immer dringlicher, da KI-Systeme unweigerlich leistungsfähiger und umfassender eingesetzt werden.

Unsere Indikatoren werden nicht das letzte Wort sein – aber wir hoffen, dass sie ein erster Schritt sein werden, diese heikle Frage wissenschaftlich fundiert anzugehen.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein