Wir stehen am Beginn einer neuen Ära. Im letzten Jahr oder so sind neue Versionen der künstlichen Intelligenz aufgetaucht, was einige zu der Behauptung veranlasst, dass maschinelles Empfindungsvermögen unmittelbar bevorsteht. Dies wird entweder als Geschenk des Himmels angesehen, das die Menschheit in ein gelobtes Land ungeahnten Wohlstands führen wird, oder als existenzielle Bedrohung, die unvorstellbare Gefahren mit sich bringt. Aber hinter beiden Behauptungen steckt eine oft unwidersprochene Annahme darüber, was wir als eindeutig fühlende Wesen sind und was in diesen Technologien passiert. Nirgendwo kommen diese Annahmen oder versteckten Vorurteile stärker zum Ausdruck als in Behauptungen, die dies besagen chatgpt und ähnliche Programme „halluzinieren“.

Wenn Menschen den Begriff „Halluzination“ in Bezug auf Chatbots verwenden, beziehen sie sich auf deren bemerkenswerte Fähigkeit, Antworten auf Fragen zu „erfinden“. Wenn Sie einen Chatbot bitten, eine Arbeit zu einem Thema zu schreiben und Referenzen anzugeben, könnten einige der bereitgestellten Zitate komplette Erfindungen sein. Die Quellen existieren einfach nicht und haben nie existiert. Wenn biografische Informationen über eine reale Person angefordert werden, kann ein Chatbot Informationen zurückgeben, die einfach falsch sind, als ob er sie aus dem Nichts ausgewählt und als Fakten dargestellt hätte. Diese Fähigkeit, falsche Informationen zu generieren, wird als Halluzination bezeichnet. Aber die Verwendung von Das Begriff in Das Der Kontext widerlegt ein gefährliches Missverständnis über den Zustand der künstlichen Intelligenz und ihren Zusammenhang mit dem, was Menschen tun, wenn sie halluzinieren.

Die Voraussetzungen für Halluzinationen

Wenn Sie im Internet nach einer Definition von Halluzination suchen, erhalten Sie etwa Folgendes: „Eine Halluzination ist eine falsche Wahrnehmung von Objekten oder Ereignissen, die Ihre Sinne betrifft: Sehen, Hören, Riechen, Berühren und Schmecken.“ Halluzinationen scheinen real zu sein, sind es aber nicht.“ Der wichtige Punkt hierbei ist die Verbindung zur Wahrnehmung. Halluzinieren bedeutet, dass man zuerst wahrnehmen muss; Du musst bereits in der Welt verkörpert sein. Um einen Begriff zu verwenden von Phänomenologie, müssen Sie bereits in eine reichhaltige und nahtlose „Lebenswelt“ eingebettet sein, die mehrere Kontexte darüber enthält, wie diese Welt funktioniert. Aber was passiert in einem großes Sprachmodell (LLM) Chatbot ist nicht annähernd an dem, was in Ihnen vorgeht.

Siehe auch  KI-Führungskräfte und Altman von ChatGPT fordern mehr US-Technologieaufsicht: Erklärt

Die aktuelle Version dieser Technologien basiert auf Statistiken und nicht auf fundierten Erfahrungen. Chatbots werden mit riesigen Datenmengen trainiert, die normalerweise aus dem Internet stammen und die es ihnen ermöglichen, statistische Korrelationen zwischen Symbolen zu entwickeln, beispielsweise den Buchstaben, aus denen Wörter bestehen. Die Rechenleistung, die erforderlich ist, um diese riesigen Netze statistischer Korrelationen zu erstellen und sie sofort zu nutzen, um Antworten auf eine Frage wie „Hat Taylor Swift einen Welpen?“ zu liefern, ist umwerfend. Die Tatsache, dass sie so gut funktionieren, ist absolut eine technologische Errungenschaft auf höchstem Niveau. Dieser Erfolg verdeckt jedoch eine wichtige Einschränkung, die verborgen bleibt, wenn ihre Misserfolge als Halluzinationen abgestempelt werden.

Ein LLM halluziniert nicht, wenn er Ihnen eine erfundene Referenz in der Arbeit über die römische Geschichte gibt, die Sie gerade geschrieben haben. Sein Fehler besteht nicht darin, eine falsche Aussage über die Welt zu machen, weil er nichts über die Welt weiß. Es ist niemand da, der etwas über irgendetwas weiß. Ebenso wichtig: Der LLM lebt keineswegs in einer Welt, in der Fehler gemacht werden können. Es spuckt einfach Symbolketten aus, die auf einer blinden statistischen Suche in einem riesigen hyperdimensionalen Korrelationsraum basieren. Das Beste, was man sagen kann, ist Wir machen den Fehler in Bezug auf die Welt wenn wir diese von uns geschaffenen Maschinen nutzen, um Fragen zu beantworten.

Tote Winkel

Warum ist es so falsch, diese statistischen Fehler als Halluzinationen zu bezeichnen? Nächsten Monat werden der Physiker Marcelo Glieser, der Philosoph Evan Thompson und ich ein neues Buch mit dem Titel veröffentlichen Der blinde Fleck: Wie die Wissenschaft die menschliche Erfahrung nicht ignorieren kann. Ich werde in den kommenden Monaten mehr über sein zentrales Argument schreiben, aber heute können wir uns auf diesen Untertitel konzentrieren. Mensch zu sein, am Leben zu sein bedeutet, in Erfahrung eingebettet zu sein. Erfahrung ist die Voraussetzung, die Voraussetzung für alles andere. Es ist der Grund, der es ermöglicht, dass alle Ideen, Vorstellungen und Theorien überhaupt möglich sind. Ebenso wichtig ist, dass Erfahrung irreduzibel ist. Es ist das, was gegeben ist; der Beton. Bei Erfahrung geht es nicht einfach nur darum, „ein Beobachter zu sein“ – das kommt erst später, wenn man die verkörperte, gelebte Qualität der Einbettung in eine Lebenswelt bereits abstrahiert hat.

Siehe auch  ChatGPT birgt nach dem neuen Update ein beängstigendes Sicherheitsrisiko. Sind Ihre Daten in Schwierigkeiten?

Wenn wir davon sprechen, dass Chatbots halluzinieren, meinen wir genau das, was wir mit dem „blinden Fleck“ meinen. Es handelt sich um eine unbestrittene philosophische Annahme, die Erfahrung auf etwas reduziert, das der Informationsverarbeitung ähnelt. Es ersetzt eine Abstraktion, die sich in einer Technologie manifestiert (was immer der Fall ist), an die Stelle dessen, was es eigentlich bedeutet, ein erfahrungsfähiges Subjekt zu sein. Wie ich bereits geschrieben habe, bist du kein Fleischcomputer. Sie sind keine Vorhersagemaschine, die auf statistischen Schlussfolgerungen basiert. Die Verwendung einer Abstraktion wie „Informationsverarbeitung“ kann in einer langen Kette anderer Abstraktionen nützlich sein, deren Ziel darin besteht, bestimmte Aspekte lebender Systeme zu isolieren. Aber man kann die nahtlose Gesamtheit der Erfahrung nicht in eine dünne, blutleere Abstraktion zurückdrängen, die aus dieser Gesamtheit herausgepresst wird.

In den zukünftigen Gesellschaften, die wir aufbauen wollen, wird es einen Platz für KI geben. Aber wenn wir nicht aufpassen, wenn wir zulassen, dass wir uns gegenüber dem Reichtum dessen, was wir sind, blind machen, dann wird das, was wir aus KI aufbauen, uns zu etwas machen weniger menschlich da wir gezwungen sind, uns an seine Grenzen zu halten. Das ist eine weitaus größere Gefahr, als dass Roboter aufwachen und die Macht übernehmen.

5/5 - (470 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein