Es gibt eine alte Regel im Marketing: Je öfter man etwas wiederholt – unabhängig davon, ob es wahr ist oder nicht – desto mehr Leute werden es glauben. Meistens erkennen wir es an relativ harmlosen Dingen wie der Vorstellung, dass man täglich ein Multivitaminpräparat einnehmen muss, dass das Frühstück die wichtigste Mahlzeit des Tages ist oder dass unsere Sandwiches einen halben Meter lang sind.
Sie können jedoch auch in Form von gefährlicheren Lügen auftreten, wie zum Beispiel, dass unsere Wahl gestohlen wurde, dass das Trinken von Bleichmitteln gesundheitliche Vorteile haben kann oder dass eine geheime Intrige von Pädophilen, die den Satan verehren, von einem Pizzarestaurant aus operiert. Im Zeitalter der sozialen Medien verbreiten sich diese Verschwörungstheorien mit rasender Geschwindigkeit. Sobald diese Dinge oft genug wiederholt werden, erhalten sie Legitimität – unabhängig davon, ob sie wahr sind oder nicht.
Seit seiner Veröffentlichung im letzten Jahr hat chatgpt von OpenAI eine Welle der Besorgnis über genau diese Idee ausgelöst. Obwohl sich das Large Language Model (LLM) im Wesentlichen wie eine fortschrittlichere Version des Text-Raubtiers Ihres Telefons verhält, kann es überzeugend wie ein Mensch sprechen. Daher könnte ein Tool wie dieses als Waffe eingesetzt werden und den Feuersturm der Fehlinformationen weiter anheizen. Dies kann jetzt besonders schädlich sein, da die medizinische Gemeinschaft weiterhin einen Krieg der Lügen und Mythen rund um die COVID-19-Pandemie führt.
„Die Verbreitung falscher Ideen in sozialen Medien oder in engen sozialen Kreisen ohne vorherige Überprüfung trägt dazu bei, eine sehr giftige und gewalttätige Atmosphäre in der Gesellschaft zu schaffen“, sagte Antonio Salas, Professor für Bioethik an der Universität von Santiago in Spanien, gegenüber The Daily Beast. „Daher sollten Mythen überprüft werden, bevor sie mithilfe geeigneter Quellen zu ihrer Verbreitung beitragen.“
Dennoch glaubt Salas, dass KI-gestützte Chatbots dies tatsächlich könnten helfen im Kampf gegen Fehlinformationen eher als behindern. Er ist der Hauptautor eines Studie veröffentlicht am Sonntag in der Zeitschrift Humanimpfstoffe und ImmuntherapeutikaDabei wurde festgestellt, dass ChatGPT genutzt werden könnte, um Mythen rund um Impfstoffe und COVID-19 zu entlarven – und sogar dazu beitragen könnte, die Impfraten zu erhöhen.
Der Einsatz eines Chatbots, der dafür bekannt ist, Fakten zu halluzinieren und völlig voreingenommenes Verhalten an den Tag zu legen, um gefährliche Verschwörungen zu widerlegen, löst bei Experten jedoch Bedenken hinsichtlich seiner Wirksamkeit aus – und ob er am Ende mehr schaden als nützen könnte.
Salas und sein Team stellten ChatGPT die 50 am häufigsten gestellten Fragen zum COVID-19-Impfstoff des Collaborating Centre for Vaccine Safety der Weltgesundheitsorganisation (WHO). Dazu gehörten Mythen über sogenannte „Impfschäden“ und gefälschte Geschichten über die Impfung, die Long Covid verursachte. Die Antworten wurden dann von einem Gremium aus WHO-Experten auf einer Skala von 1 bis 10 bewertet (wobei 10 die höchste Genauigkeit darstellt).
Die Forscher fanden heraus, dass der Chatbot bei der Beantwortung der Fragen durchschnittlich 9 von 10 Punkten für die Genauigkeit erhielt. Auch die anderen Antworten waren korrekt, ließen aber lediglich Informationslücken aus.
„Wir konnten bestätigen, dass ChatGPT ein Tool ist, das eine schnelle Reaktion und großartige Möglichkeiten zur Benutzerinteraktion bietet, und die heute verfügbare Version bietet Antworten, die mit wissenschaftlichen Erkenntnissen übereinstimmen“, erklärte Salas.
Die Autoren räumten jedoch ein, dass es beim Chatbot eine Reihe großer Einschränkungen gibt. Zum einen könnte es so konzipiert sein, dass es ungenaue Informationen liefert. Auch wenn innerhalb kurzer Zeit mehrmals dieselbe Frage gestellt wurde, kam es häufig zu unterschiedlichen und gelegentlich ungenauen Antworten.
„Nun, alle technischen Hilfsmittel könnten unsachgemäß eingesetzt werden“, sagte Salas. „Man könnte ChatGPT ‚foltern‘, damit die Antworten eine falsche Idee bestätigen, oder es könnten sogar andere Formen von Chatbots auftauchen, die darauf trainiert sind, bestimmte Mythen zu verbreiten.“ Er fügte jedoch hinzu, dass das KI-Tool „hier bleiben wird“ und ermutigte die Menschen, „zu lernen, damit zu koexistieren, das Beste daraus zu machen und zu lernen, es richtig zu nutzen“.
So optimistisch Salas im Chatbot auch ist, andere Experten sind nicht so überzeugt.
„Im Moment sind ChatGPT und andere LLMs im Allgemeinen keine verlässliche Informationsquelle, da sie in ihren Antworten oft Dinge nur erfinden“, sagte Vincent Conitzer, KI-Ethiker an der Carnegie Mellon University, gegenüber The Daily Beast. „Das heißt nicht, dass sie nicht hilfreich sein können, um mehr über COVID-Impfstoffe oder andere Themen zu erfahren – aber um sie verantwortungsvoll zu nutzen, muss man den Reaktionen skeptisch gegenüberstehen.“
Es ist diese Skepsis, die den Einsatz von ChatGPT zur Entlarvung von Mythen von vornherein hinfällig machen könnte. Dabei handelt es sich um einen Chatbot, der manipuliert werden kann, um Dinge wie Anspruch zu tun Die Schießerei in Parkland war eine unter falscher Flagge durchgeführte Tat voller Krisenakteure, Fake-News-Artikel aus großen Publikationen erfindenoder Erstellung gefälschter Rechtsdokumente mit erfundenen Gerichtsverfahren. Wie können wir etwas vertrauen, um Mythen zu entlarven, wenn wir ihm gar nicht vertrauen?
„Es besteht ein großer Bedarf an genauen Informationen über Impfstoffe; Es besteht aber auch ein großer Bedarf an genauen Informationen über Chatbots“, sagte Irina Raicu, Direktorin des Internet-Ethikprogramms am Markkula Center for Applied Ethics an der Santa Clara University, gegenüber The Daily Beast.
Sie wies darauf hin, dass die Aufgabe, Impfmythen zu entlarven, genauso gut über eine Datenbank mit Antworten auf eine FAQ-Seite erledigt werden könne. Dies würde auch eine einfache Aktualisierung bei Bedarf ermöglichen – etwas, das mit einem komplexen LLM nicht so einfach möglich ist.
Schließlich wurde ChatGPT auf Daten bis zum Jahr 2021 trainiert. Jetzt fehlen zwei Jahre aktualisierte wissenschaftliche Informationen.
„Chatbots halten auch seltener mit dem neuesten Konsens Schritt, der in einigen Bereichen im Zusammenhang mit der öffentlichen Gesundheit oft das Ergebnis fortlaufender Erkenntnisse ist“, fügte Raicu hinzu.
Wenn Salas jedoch in einem Punkt Recht hat, dann ist es die Tatsache, dass diese Technologien nicht verschwinden werden. Sie werden immer mächtiger und allgegenwärtiger – insbesondere, wenn Big-Tech-Unternehmen und Regierungen auf der ganzen Welt beginnen, auf sie aufmerksam zu werden und Milliarden von Dollar in ihre Entwicklung zu stecken.
In diesem Fall wäre es jedoch ratsam, sich an das alte Marketing-Sprichwort zu erinnern: Je öfter Sie etwas wiederholen – unabhängig davon, ob es wahr ist oder nicht – desto mehr Leute werden es glauben. Sie müssen nur aufpassen, dass sie nicht anfangen, auch ihre eigenen Lügen zu glauben.