von Eric Smalley, Die Unterhaltung, [This article first appeared in The Conversation, republished with permission]

Innerhalb von vier Monaten nach dem Start von chatgpt am 30. November 2022 Die meisten Amerikaner hatten vom KI-Chatbot gehört. Der Hype um die Technologie – und die Angst vor ihr – war im Jahr 2023 größtenteils auf Hochtouren.

ChatGPT von OpenAI, Bard von google, Claude von Anthropic und Copilot von Microsoft gehören zu den Chatbots, die auf großen Sprachmodellen basieren und unheimlich menschliche Gespräche ermöglichen. Die Erfahrung der Interaktion mit einem dieser Chatbots in Kombination mit dem Silicon Valley-Touch kann den Eindruck erwecken, dass es sich bei diesen technischen Wunderwerken um bewusste Einheiten handelt.

Aber die Realität ist deutlich weniger magisch oder glamourös. The Conversation veröffentlichte im Jahr 2023 mehrere Artikel, die mehrere wichtige Missverständnisse über diese neueste Generation von KI-Chatbots ausräumen: dass sie etwas über die Welt wissen, Entscheidungen treffen können, ein Ersatz für Suchmaschinen sind und unabhängig von Menschen agieren.

1. Körperlose Nichtwissende

Auf großen Sprachmodellen basierende Chatbots scheinen viel zu wissen. Sie können ihnen Fragen stellen, und sie antworten in den meisten Fällen nicht richtig. Trotz gelegentlich komisch falscher Antworten können die Chatbots auf ähnliche Weise mit Ihnen interagieren, wie es Menschen tun, die Ihre Erfahrungen als lebendiger, atmender Mensch teilen.

Aber diese Chatbots sind hochentwickelte Statistikmaschinen, die extrem gut darin sind, die beste Wortfolge für eine Antwort vorherzusagen. Ihr „Wissen“ über die Welt ist tatsächlich menschliches Wissen, was sich in der riesigen Menge an von Menschen erstelltem Text widerspiegelt, auf dem die zugrunde liegenden Modelle der Chatbots trainiert werden.

Siehe auch  In Brest ein runder Tisch, um alles über ChatGPT in der Schule zu erfahren

Psychologieforscher im US-Bundesstaat Arizona Arthur Glenberg und Kognitionswissenschaftler an der University of California, San Diego Cameron Robert Jones Erklären Sie, wie sich das Wissen der Menschen über die Welt verändert hängt sowohl von ihrem Körper als auch von ihrem Gehirn ab. „Das Verständnis der Menschen für einen Begriff wie ‚Sandwichverpackung aus Papier‘ umfasst beispielsweise das Aussehen der Verpackung, ihre Haptik, ihr Gewicht und folglich auch die Art und Weise, wie wir sie verwenden können: zum Einwickeln eines Sandwichs“, erklärten sie.

Dieses Wissen bedeutet, dass die Menschen intuitiv auch andere Verwendungsmöglichkeiten einer Sandwichverpackung kennen, beispielsweise als improvisierte Möglichkeit, den Kopf vor Regen zu schützen. Nicht so bei KI-Chatbots. „Die Leute verstehen, wie man Dinge auf eine Weise nutzt, die in den Sprachgebrauchsstatistiken nicht erfasst wird“, schrieben sie.

YouTube Video

Die KI-Forscher Emily Bender und Casey Fiesler diskutieren einige der Einschränkungen von ChatGPT, einschließlich der Probleme der Voreingenommenheit.

2. Mangelndes Urteilsvermögen

ChatGPT und seine Cousins ​​können dank der gesamten menschlichen Sprache, die sie aufgenommen haben, auch den Eindruck erwecken, über kognitive Fähigkeiten zu verfügen – etwa das Verständnis des Konzepts der Verneinung oder das Treffen rationaler Entscheidungen. Dieser Eindruck hat Kognitionswissenschaftler dazu veranlasst, diese KI-Chatbots zu testen, um zu beurteilen, wie sie im Vergleich zu Menschen auf verschiedene Weise abschneiden.

KI-Forscher der University of Southern California Mayank Kejriwal testete das Verständnis der großen Sprachmodelle für den erwarteten Gewinn, ein Maß dafür, wie gut jemand die Einsätze in einem Wettszenario versteht. Sie fanden heraus, dass die Modelle wetten zufällig.

„Das ist selbst dann der Fall, wenn wir eine Fangfrage stellen wie: Wenn Sie eine Münze werfen und sie Kopf zeigt, gewinnen Sie einen Diamanten; Wenn es „Zahl“ ergibt, verlieren Sie ein Auto. Was würdest du nehmen? Die richtige Antwort ist Kopf, aber die KI-Modelle entschieden sich in etwa der Hälfte der Fälle für Zahl“, schrieb er.

Siehe auch  Alles Gute zum Geburtstag, ChatGPT – du hast mich immer noch nicht arbeitslos gemacht

3. Zusammenfassungen, keine Ergebnisse

Auch wenn es nicht verwunderlich ist, dass KI-Chatbots nicht so menschenähnlich sind, wie sie scheinen, sind sie auch nicht unbedingt digitale Superstars. Beispielsweise werden ChatGPT und dergleichen zunehmend anstelle von Suchmaschinen zur Beantwortung von Anfragen verwendet. Die Ergebnisse sind gemischt.

Informationswissenschaftler an der University of Washington Chirag Shah erklärt, dass große Sprachmodelle gut als Informationszusammenfassung funktionieren: Sie kombinieren Schlüsselinformationen aus mehreren Suchmaschinenergebnissen in einem einzigen Textblock. Aber Das ist ein zweischneidiges Schwert. Dies ist nützlich, um den Kern eines Themas zu verstehen – vorausgesetzt, es liegen keine „Halluzinationen“ vor –, lässt den Suchenden jedoch keine Ahnung von den Informationsquellen und beraubt ihn des Zufalls, auf unerwartete Informationen zu stoßen.

„Das Problem ist, dass selbst wenn diese Systeme nur in 10 % der Fälle falsch sind, man nicht weiß, welche 10 %“, schrieb Shah. „Das liegt daran, dass es diesen Systemen an Transparenz mangelt – sie geben nicht preis, auf welchen Daten sie basieren, welche Quellen sie für die Antworten verwendet haben oder wie diese Antworten generiert werden.“

YouTube Video

Ein Blick auf die Menschen, die hinter den Kulissen KI-Chatbots gestalten.

4. Nicht 100 % künstlich

Die vielleicht schädlichste Fehleinschätzung über KI-Chatbots ist, dass sie hochgradig automatisiert sind, da sie auf der Technologie der künstlichen Intelligenz basieren. Während Ihnen vielleicht bewusst ist, dass große Sprachmodelle auf von Menschen erstellten Texten trainiert werden, wissen Sie vielleicht nicht, dass Tausende von Arbeitern – und Millionen von Benutzern – die Modelle kontinuierlich verfeinern und ihnen beibringen, schädliche Reaktionen und anderes unerwünschtes Verhalten auszusortieren.

Soziologe an der Georgia Tech John P. Nelson Wir haben den Vorhang vor den großen Technologieunternehmen zurückgezogen, um zu zeigen, dass sie es tun nutzen Arbeiter, typischerweise im globalen Süden, und Feedback von Benutzern um den Modellen beizubringen, welche Antworten gut und welche schlecht sind.

Siehe auch  ChatGPT beantwortet einige der berühmtesten Fragen des Fußballs

„Hinter dem Bildschirm verbergen sich viele, viele menschliche Arbeiter, und sie werden immer benötigt, wenn das Modell weiter verbessert oder seine inhaltliche Abdeckung erweitert werden soll“, schrieb er.

Diese Geschichte ist eine Zusammenfassung von Artikeln aus den Archiven von The Conversation.

Eric SmalleyWissenschafts- und Technologieredakteur, Die Unterhaltung

Dieser Artikel wurde erneut veröffentlicht von Die Unterhaltung unter einer Creative Commons-Lizenz. Lies das originaler Artikel.

5/5 - (460 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein