KI-Textgeneratoren wie chatgpt, Bing AI Chatbot und google Bard haben in letzter Zeit viel Aufmerksamkeit erregt. Diese großen Sprachmodelle können beeindruckende Texte erstellen, die absolut legitim erscheinen. Aber hier ist die Wendung: Eine neue Studie legt nahe, dass wir Menschen möglicherweise auf die von ihnen generierten Fehlinformationen hereinfallen.
Um dies zu untersuchen, führten Forscher der Universität Zürich ein Experiment durch, um zu sehen, ob Menschen den Unterschied zwischen von Menschen geschriebenen Inhalten und denen von GPT-3 erkennen können, das im Jahr 2020 angekündigt wurde (nicht so weit fortgeschritten wie GPT-4 zuvor eingeführt). dieses Jahr). Die Ergebnisse waren überraschend. Mit einer Genauigkeit von 52 Prozent schnitten die Teilnehmer nur geringfügig besser ab als zufällige Schätzungen. Es war also keine leichte Aufgabe herauszufinden, ob ein Text von einem Menschen oder einer KI geschrieben wurde.
Nun, hier ist die Sache mit GPT-3. Es versteht die Sprache nicht so gut wie wir. Es stützt sich auf Muster, die es aus der Untersuchung des menschlichen Sprachgebrauchs gelernt hat. Während es sich hervorragend für Aufgaben wie Übersetzungen, Chatbots und kreatives Schreiben eignet, kann es auch zur Verbreitung von Fehlinformationen, Spam und gefälschten Inhalten missbraucht werden.
Die Forscher vermuten, dass der Aufstieg von KI-Textgeneratoren mit einem anderen Problem zusammenfällt, mit dem wir konfrontiert sind: der „Infodemie“. Dann verbreiteten sich Fake News und Desinformation wie ein Lauffeuer. Die Studie gibt Anlass zur Sorge, dass GPT-3 zur Generierung irreführender Informationen verwendet werden könnte, insbesondere in Bereichen wie der globalen Gesundheit.
Um herauszufinden, wie sich GPT-3-generierte Inhalte auf das Verständnis der Menschen auswirken, führten die Forscher eine Umfrage durch. Sie verglichen die Glaubwürdigkeit synthetischer Tweets, die von GPT-3 erstellt wurden, mit Tweets, die von Menschen geschrieben wurden. Sie konzentrierten sich auf Themen, die häufig von Fehlinformationen geplagt werden, wie Impfstoffe, 5G-Technologie, Covid-19 und Evolution.
Und hier ist die Überraschung: Die Teilnehmer erkannten die synthetischen Tweets mit genauen Informationen häufiger als die von Menschen geschriebenen. Ebenso waren sie der Meinung, dass die von GPT-3 generierten Desinformations-Tweets häufiger zutreffend seien als die von Menschen erstellten Desinformations-Tweets. GPT-3 war also sowohl besser darin, Menschen zu informieren als auch in die Irre zu führen, als wir.
Noch interessanter ist, dass die Teilnehmer weniger Zeit für die Bewertung der synthetischen Tweets brauchten als für die von Menschen geschriebenen. Es scheint, dass KI-generierte Inhalte einfacher zu verarbeiten und auszuwerten sind. Aber keine Sorge, wir Menschen sind GPT-3 immer noch überlegen, wenn es um die Bewertung der Genauigkeit von Informationen geht.
Lesen Sie auch: Premierminister Modi trifft Microsoft-CEO Satya Nadella und bespricht die KI- und Technologiekooperation mit Indien
Die Studie ergab auch, dass GPT-3 sich normalerweise an die Regeln hielt und auf Nachfrage genaue Informationen lieferte. Allerdings verhielt es sich manchmal skrupellos und weigerte sich, Desinformation zu erzeugen. Es hat also die Macht, Nein zur Verbreitung gefälschter Inhalte zu sagen, kann aber gelegentlich einen Fehler machen, wenn es darum geht, korrekte Informationen bereitzustellen.
Diese Studie zeigt, dass wir anfällig für Fehlinformationen sind, die von KI-Textgeneratoren wie GPT-3 generiert werden. Obwohl sie äußerst glaubwürdige Texte verfassen können, ist es für uns von entscheidender Bedeutung, wachsam zu bleiben und Instrumente zu entwickeln, um Fehlinformationen effektiv zu erkennen und zu bekämpfen.
Lesen Sie auch: Sänger Paul McCartney nutzt KI-Technologie, um John Lennons Stimme für den letzten Beatles-Song wiederzubeleben