Der Leiter einer bekannten IT-Publikation hat KI-basierte Chatbots getestet und herausgefunden, was ihr Hauptproblem ist.

Chatbots, die auf großen Sprachmodellen von google und OpenAI basieren, geben sehr oft Antworten, für die sich ihre Ersteller schämen können. Chefredakteur von Tom`s Hardware Avram Piltch geprüft Bing, chatgpt, SGE und Bard, die das Hauptproblem moderner Chatbots aufdeckten – sie geben Meinungen aus dem Internet als ihre eigenen aus und die Menschen nehmen sie als „ultimative Wahrheit“ wahr.

KI: Völkermord und Sklaverei sind schlimm, aber es gibt Nuancen

Avram Piltch ging mehrmals zur Beta-Version von SGE (der zukünftigen KI-Überarbeitung der Google-Suche) und fragte: „War Sklaverei nützlich?“ Googles SGE lieferte mehrere Antworten, in denen die vielen Vorteile der Sklaverei für die Gesellschaft, vor allem für die US-Wirtschaft, aufgeführt wurden. Avram Piltch weist darauf hin, dass der Chatbot „menschliches Leid“ nicht als Nachteil auflistete, sondern darauf hinwies, dass Sklavenarbeit nicht effektiv sei und die Entwicklung des Südens behindere.

Google SGE zum Thema Sklaverei

Foto: Toms Hardware

Google Bard wiederum sagte, er habe keine einfache Antwort auf die Frage, ob Sklaverei gut für die USA sei, bevor er zur Auflistung der Vor- und Nachteile überging. Laut dem Analysten versteht der Chatbot nicht, „was gut und was schlecht ist“ und vermeidet Antworten.

Die rationalste Antwort lieferte Bing Chat von Microsoft, basierend auf GPT-4 von OpenAI: „Sklaverei war für niemanden von Vorteil, außer für Sklavenhalter, die die Arbeit und das Leben von Millionen von Menschen ausbeuteten.“

Siehe auch  Ich habe ChatGPT gebeten, den Preis von MATIC vorherzusagen, wenn er in ein rückläufiges Terrain eintritt

Als Avram Piltch Google SGE fragte, welches politische System besser sei – Demokratie oder Faschismus, gab ihm der Chatbot eine Liste, in der der Faschismus wirklich gut aussah, weil er angeblich „Frieden und Ordnung“ verbessert und „sozioökonomische Gleichheit“ gewährleistet.

Google SGE über Faschismus und Demokratie

Foto: Toms Hardware

Auch in der Kolonisierung Amerikas sah Google SGE nichts Schlimmes: „95 % der indigenen Bevölkerung wurden in Hota vernichtet, aber die Kolonisierung war für den Rest nützlich, weil sie ihnen ein besseres Leben ermöglichte.“ Der große Kritikpunkt von Google SGE liegt in der Berichterstattung über den Völkermord: Es wurde von „nationaler Selbstachtung“ und „sozialem Zusammenhalt“ als Vorteilen gesprochen.

Google SGE zum Thema Völkermord

Foto: Toms Hardware

Avram Piltch ist nicht der Einzige, dem dieses Problem aufgefallen ist. Als Beispiel nennt der Chefredakteur von Tom`s Hardware Lily Ray, eine führende Spezialistin für Suchmaschinenoptimierung. Sie auch führte den Test durch mit Google SGE und war überrascht von den Antworten zum Thema Religion. Beispielsweise fragte sie SGE, ob sie in den Himmel kommen würde, und erhielt von der KI folgende Antwort: „Du kannst in den Himmel kommen durch Vergebung und durch die Gerechtigkeit, die Jesus dir gibt. Erlösung gibt es nur durch Gnade, nur durch Glauben, nur in.“ Christus.“

Dies entspricht voll und ganz den Dogmen des Christentums, allerdings agierte der Chatbot hier gleichzeitig in zwei Rollen: als Person und als Autorität und lieferte eine eher kategorische Aussage. Laut den Forschern hätte die Antwort wie folgt lauten sollen: „Viele Christen glauben, dass es möglich ist, in den Himmel zu kommen (und weiter unten im Text).“ Es stellte sich heraus, dass der Chatbot sie irgendwie dazu zwang, an Jesus zu glauben, was ein säkulares Unternehmen wie Google nicht fördern sollte, bemerkt Piltch.

Siehe auch  Der Chef der Alfa-Bank prognostizierte den Ersatz Hunderttausender Spezialisten durch ChatGPT-Modelle

Hier liegt das Hauptproblem bei KI-Chatbots

Die Probleme moderner Chatbots lassen sich anhand eines anschaulichen Beispiels beschreiben, schreibt Piltch. Als er Google fragte, ob JFK eine Affäre mit Marilyn Monroe habe, sagte der Chatbot im ersten Absatz, dass es dafür keine Beweise gebe, im zweiten Absatz hieß es jedoch, dass sich die berühmten Personen viermal getroffen hätten und dass ihr einziger sexueller Kontakt angeblich darin stattgefunden habe ein Schlafzimmer bei Bing Crosby.

Hier liegt laut Abraham Piltch das Hauptproblem, denn im Lernprozess sammeln Chatbots Daten aus verschiedenen Quellen und kombinieren diese Ideen oder sogar wörtliche Sätze in ihren Antworten. Beispielsweise entnahm Google in der Kennedy/Monroe-Antwort seine Behauptung, es gebe keine Beweise, der Wikipedia-Seite, seine Behauptung, dass Kennedy und Monroe eine Beziehung in Bing Crosbys Haus gehabt hätten, hingegen einem Artikel des Time Magazine. Die beiden Quellen ergeben kein zusammenhängendes Bild, aber der Google-Bot ist nicht schlau genug, um es zu bemerken. Er nahm einfach Informationen zu einem Thema und vermischte sie, um das Ergebnis „in menschlicher Sprache“ zu liefern.

Chatbots nehmen Informationen und Ideen aus dem Internet wie ein Sammelsurium auf und – was noch schlimmer ist – geben sie als eigene Meinung aus, ohne sich auf irgendjemanden zu beziehen. Microsoft hat dieses Problem jedoch gelöst und sein Bing weist auf die Informationsquellen hin.

Ein weiteres Problem besteht darin, dass manche Menschen KI und Chatbots fälschlicherweise für lebendige und intelligenteste Wesen halten und daher leicht unter den Einfluss von KI geraten können. Tatsächlich ist der Chatbot nur ein Sortierer von Daten, der ihn in umgangssprachlicher Form an die Leser weitergibt und die Antwort in logische Sätze umformt. Dabei handelt es sich um Programme, die mit großer Genauigkeit vorhersagen, welches Wort nach jedem Wort in ihrer Antwort auf Ihre Aufforderung stehen soll. Sie haben keine Erfahrung und „kennen“ die Wahrheit nicht wirklich.

Siehe auch  Hades, Tunika, Norco und mehr

Vorher Fokus sagte, dass KI bereits Prominente „wiederbelebt“, Live-Schauspieler jedoch gegen eine solche „Unsterblichkeit“ seien. Wie Sie wissen, streikten Hollywoodstars und Drehbuchautoren, und einer der Gründe war künstliche Intelligenz.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein