chatgpt ist ein großes Sprachmodell und gehört als solches zur Familie der künstlichen Intelligenz. Allerdings mangelt es ihm wie jedem anderen Mitglied dieser Familie an Intelligenz im herkömmlichen Sinne. Es handelt sich einfach um ein sehr umfangreiches Rechenmodell, das nach dem Lesen und Verarbeiten von Millionen Textdokumenten gelernt hat, statistische Beziehungen zwischen Milliarden von Wörtern zu identifizieren.

Sie können an ChatGPT verschiedene Fragen stellen und es liefert in der Regel überzeugende Antworten, die manchmal so aussehen, als ob ein Top-Experte auf diesem Gebiet geantwortet hätte. Umgekehrt kann es gelegentlich zu scheinbar „dummen“ Antworten kommen, die den Gedanken an eine unsinnige Antwort hervorrufen. Wie kommt es dazu?

Eine interessante Antwort wird in einem aktuellen Forschungspapier „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?“ gegeben. 🦜“, von Emily M. Bender.

Bender weist darauf hin: „Im Gegensatz dazu, wie es bei der Beobachtung seiner Ausgabe erscheinen mag, ist ein LM ein System zum willkürlichen Zusammenfügen von Sequenzen sprachlicher Formen, die es in seinen umfangreichen Trainingsdaten beobachtet hat, entsprechend probabilistischer Informationen darüber, wie sie kombiniert werden, jedoch ohne.“ jeder Hinweis auf die Bedeutung: ein stochastischer Papagei.“

Stellen wir einem stochastischen Papagei wie ChatGPT eine einfache Frage: „Wie alt wird Joe Biden (in Jahren und Tagen) am 19. November 2023 sein?“ Die richtige Antwort ist klar; Er wurde am 20. November 1942 geboren und war an diesem Tag 80 Jahre und 364 Tage alt. Allerdings liefert ChatGPT eine andere Antwort: „Am 19. November 2023 wird Joe Biden 81 Jahre und 11 Tage alt.“

Barack Obama wurde am 4. August 1961 geboren. Somit wäre er am 3. August 2023 61 Jahre und 364 Tage alt. Allerdings liefert ChatGPT eine andere Antwort: „Am 3. August 2023 wäre Barack Obama 62 Jahre und 1 Tag alt.“ Wenn diese Fragen eine Stunde später gestellt werden, können die Antworten von einer richtigen Antwort bis zu derselben falschen Antwort oder einer anderen falschen Antwort variieren. ChatGPT ist äußerst anpassungsfähig.

Siehe auch  Mercedes-Benz integriert ChatGPT als Sprachassistenten in seine neuen Fahrzeuge

Diese einfachen Fragen und Antworten zeigen, dass ChatGPT durchaus in der Lage ist, falsche Informationen zu generieren. Doch welcher Natur sind diese falschen Informationen? Handelt es sich um Fehlinformationen, Desinformationen oder etwas anderes?

Um diese Frage zu beantworten, müssen wir die Definitionen von Fehlinformation und Desinformation berücksichtigen. Allerdings gibt es eine große Auswahl an Definitionen. Ich habe diese aus verschiedenen Quellen untersucht, darunter Dictionary.com, Cambridge Dictionary, Merriam-Webster, Collins English Dictionary, google/Oxford Languages, Oxford English Dictionary, Wiktionary und Wikipedia, sowie diejenigen, die der Europarat in Veröffentlichungen wie z wie „Umgang mit Propaganda, Fehlinformationen und Fake News“ und „Die Auswirkungen von Desinformation auf demokratische Prozesse und Menschenrechte weltweit“.

Beginnen wir mit den Definitionen von Desinformation. Als Desinformation gelten Informationen, die falsch, irreführend, vorsätzlich voreingenommen oder manipuliert, ungenau, irreführend, Propaganda, Verschwörungstheorien und/oder Gerüchte sind. Es wird häufig mit Zielen wie der Beeinflussung der öffentlichen Meinung, der Verschleierung der Wahrheit, der Täuschung, der Verwirrung, der Irreführung, der Schaffung von Schaden, dem Streben nach wirtschaftlichem Gewinn oder der Zufügung von öffentlichem Schaden in Verbindung gebracht. Inmitten dieser Vielzahl von Definitionen zeichnet sich ein roter Faden ab: Bei Desinformation handelt es sich um Falschinformationen mit dem Ziel der Täuschung.

Was ChatGPT betrifft, habe ich zehnmal nach der Definition gefragt und jedes Mal leicht unterschiedliche Antworten erhalten. Eine Antwort lautete beispielsweise: „Falsche oder irreführende Informationen werden absichtlich verbreitet, um Menschen zu täuschen, zu manipulieren oder zu verwirren, oft zu politischen oder Propagandazwecken.“

Wenn wir aus diesen zehn Definitionen einen Durchschnitt berechnen würden, würde er wahrscheinlich zu etwas wie „falsche Informationen absichtlich verbreitet werden, um zu täuschen“ führen, was mit der Kernidee der anderen Definitionen übereinstimmt. Diese Konsistenz ist angesichts der Natur stochastischer Papageien nicht unerwartet.

Siehe auch  ChatGPT-Internetzugang – kostenloses KI-Webbrowsen angekündigt

Die Ergebnisse bezüglich Fehlinformationen sind wie folgt. Unter Fehlinformationen werden zunächst Informationen verstanden, die falsch, falsch, irreführend, ungenau und/oder falsch sind. Darüber hinaus beinhalten einige Definitionen die Vorstellung, dass die falschen Informationen täuschen sollen, während andere angeben, dass keine Absicht zur Täuschung besteht. Beispielsweise heißt es in dem englischen Artikel auf Wiktionary einfach: „Informationen, die falsch sind.“ Der französische Artikel fügt hinzu, dass keine Täuschungsabsicht besteht und der niederländische Artikel besagt, dass beides möglich ist (täuschen und nicht täuschen). Angesichts der Definition von Desinformation bevorzuge ich die Varianten, die sich auf Falschinformationen ohne Täuschungsabsicht beziehen.

Ich habe ChatGPT außerdem zehnmal nach der „Definition“ von Fehlinformationen abgefragt und dabei zehn verschiedene Definitionen erhalten. Das Ergebnis war nicht überraschend. Hier ein Beispiel: „Falsche oder ungenaue Informationen, die unbeabsichtigt verbreitet werden und zu falschen Vorstellungen oder Missverständnissen führen, oft ohne bewusste Täuschung.“

Die Variation in den Definitionen von ChatGPT spiegelt die Vielfalt der Definitionen wider, auf die ich gestoßen bin. Die Hälfte von ihnen beschreibt Fehlinformationen als reine Falschinformationen, während die andere Hälfte die Möglichkeit einer Täuschungsabsicht einschließt.

Die Hauptfrage ist nun, ob die von ChatGPT generierten falschen Informationen als Fehlinformationen, Desinformationen oder etwas anderes eingestuft werden können. Ich glaube, dass der Herausgeber von ChatGPT nicht die Absicht hat, zu täuschen, was bedeutet, dass es sich nicht um Desinformation handelt. Könnte es eine Fehlinformation sein? Auf den ersten Blick könnte man zu „Ja“ tendieren, aber die Situation ist einzigartig. Der Herausgeber erkennt an, dass falsche Informationen erstellt werden können, generiert jedoch weiterhin ungenaue Informationen, einschließlich eines Haftungsausschlusses im Kleingedruckten am Ende der Seite (mit dem Hinweis, dass ChatGPT möglicherweise ungenaue Informationen über Personen, Orte oder Fakten liefert). Ich denke, dass weder Fehlinformation noch Desinformation die richtige Bezeichnung für die Antworten ist, die ChatGPT liefern kann. Ich bevorzuge Nichtinformation.

Siehe auch  Hey, hast du das neue ChatGPT-Design gesehen?

Warum? Information ist die Macht zu informieren oder, mit anderen Worten, die Macht, Unsicherheit zu reduzieren. Ein Sprachmodell wie ChatGPT liefert immer eine Antwort auf eine Frage, und diese Antwort kann entweder richtig oder falsch sein. Es gibt jedoch keinen Hinweis darauf, ob die Antwort richtig oder falsch ist. Daher gibt es keine Macht zu informieren, keine Macht, die Unsicherheit zu verringern; Es gibt einfach keine Informationen. Die Antworten sind keine Informationen.

Was ist ChatGPTs Meinung zu Systemen wie ihm selbst? Ich habe die folgende Frage gestellt: „Stellen Sie sich eine Website vor, auf der Benutzer Fragen stellen können und das zugrunde liegende System Antworten liefert, die entweder richtig oder falsch sein können.“ Der Herausgeber der Website erkennt an, dass das System falsche Informationen generieren kann, und gibt am Ende der Seite einen Haftungsausschluss im Kleingedruckten an. Was denken Sie über diese Website, ausgedrückt in etwa 100 Wörtern?“

Innerhalb weniger Sekunden gab ChatGPT eine Antwort:

„Diese Website ist problematisch und potenziell schädlich. Obwohl der Haftungsausschluss den Betreiber rechtlich schützen kann, entbindet er ihn nicht von der Verantwortung, korrekte Informationen bereitzustellen. Wenn die Verbreitung fehlerhafter Informationen auch mit einer Warnung zugelassen wird, besteht die Gefahr, dass Fehlinformationen verbreitet werden, das Vertrauen in Online-Inhalte untergraben wird und möglicherweise Schaden entsteht. Ethische und moralische Überlegungen sollten der Genauigkeit und dem verantwortungsvollen Austausch von Informationen Vorrang einräumen. Die Förderung der Verbreitung falscher Informationen, auch wenn diese unbeabsichtigt ist, kann in einer Zeit, in der genaue Informationen für fundierte Entscheidungen und den öffentlichen Diskurs von entscheidender Bedeutung sind, schwerwiegende Folgen haben.“

Wenn Sie daran interessiert sind, für International Policy Digest zu schreiben, senden Sie uns bitte eine E-Mail an [email protected]

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein