In einem Text mit dem Titel „chatgpt ist Bullshit“ (Bullshit, Müll, Dummheit usw.) erinnern diese drei Professoren – zwei in Philosophie und einer in Sozialwissenschaften – von der Universität Glasgow daran, inwieweit der Begriff „Halluzinationen“ einführt falscher Eindruck, der einer „Intelligenz“, die die Realität auf ihre eigene Weise wahrnimmt oder Überzeugungen darüber aufrechterhält, was Realität ist.
Allerdings funktionieren die Gesprächsagenten, über die wir seit anderthalb Jahren sprechen, nicht auf der Grundlage von Wahrnehmungen oder Überzeugungen. Sie sagen einfach Wörter – oder Pixel in einem Bild – aus einer riesigen Datenbank voraus. Sie wissen nicht, was wahr oder falsch ist. Wenn sie eine falsche Antwort schreiben, liegt das daran, dass etwas in den Wahrscheinlichkeiten sie zu dieser „Schlussfolgerung“ geführt hat.
Abonniere unseren Newsletter!
So verpassen Sie keine wissenschaftlichen Nachrichten und erfahren alles über unsere Bemühungen im Kampf gegen Fake News und Desinformation!
Doch eine Unwahrheit bleibt eine Unwahrheit, schreiben die drei Autoren in ihrer Analyse, veröffentlicht am 8. Juni von der Zeitschrift Ethik und Informationstechnologie„Wir argumentieren daher, dass die Beschreibung falscher KI-Darstellungen als „Bullshit“ eine nützlichere und genauere Möglichkeit ist, das Verhalten dieser Systeme vorherzusagen und zu diskutieren.“
Sie sind nicht die ersten, die diesen Begriff vorschlagen. In eine Konferenz Der im März 2023 vorgestellte Ingenieur Adam Kaczmarek sprach von ChatGPT als einem „Papagei“, der „Bullshit“ erzeugt. Und in einem Meinungstext veröffentlicht im April 2023 vom Popularisierungsmagazin UnterdunkelZwei amerikanische Biologieprofessoren schlugen außerdem vor, „Bullshit“ zu verwenden oder zumindest auf „Halluzinationen“ zu verzichten. Die angeblichen Halluzinationen dieser „breiten Sprachmodelle“ sind keine Pathologien oder Funktionsstörungen, sondern vielmehr direkte Folgen der Designphilosophien und Designentscheidungen, die hinter der Erstellung dieser Modelle standen. ChatGPT ist nicht krank, wenn es sagt, dass die Bevölkerung des Mars 2,5 Milliarden beträgt: Es verhält sich genau so, wie es entworfen wurde. »
Und es handelt sich nicht nur um eine semantische Debatte: Die von uns verwendeten Wörter haben die Macht, die öffentliche Wahrnehmung des Potenzials dieser Technologie sowie die Wahrnehmung von Politikern zu beeinflussen, die früher oder später Gesetze zur Regulierung dieser Technologie erlassen müssen. Ein Teil der Öffentlichkeit ist bereits bereit zu glauben, dass es sich bei dem, was die ChatGPTs dieser Welt produzieren, um verlässliche Informationen handelt: Ein Vokabular, das dazu neigt, sie zu „humanisieren“, birgt die Gefahr, diese Wahrnehmung zu verstärken. Im Gegenteil, erinnert das Trio, seien diese Technologien „einfach nicht darauf ausgelegt, die Realität genau darzustellen, sondern vielmehr den Eindruck zu erwecken, dass sie genau das tun“.