Im Jahr 2019 stufte die Weltgesundheitsorganisation (WHO) die Impfskepsis als eine der zehn größten Bedrohungen für die globale Gesundheit ein. Während der Pandemie trugen über soziale Medien verbreitete Fehlinformationen zum wachsenden öffentlichen Misstrauen gegenüber Covid-19-Impfstoffen bei.
Wissenschaftler des Universitätskrankenhauses von Santiago de Compostela stellten einem Chatbot mit künstlicher Intelligenz die 50 am häufigsten gestellten Fragen zu Covid-19-Impfstoffen.
Die Fragen deckten insgesamt drei Themen ab. Die erste betraf falsche Vorstellungen über die Sicherheit des Impfstoffs, etwa dass dieser zu einem verlängerten Krankheitsverlauf führen könnte. Das zweite sind falsche Kontraindikationen, also medizinische Situationen, in denen die Anwendung der Injektion sicher ist, beispielsweise bei stillenden Frauen. Das dritte sind echte Kontraindikationen, also Gesundheitszustände, bei denen der Impfstoff nicht eingesetzt werden kann, und Situationen, in denen Ärzte Vorsichtsmaßnahmen treffen müssen, beispielsweise wenn der Patient eine Herzmuskelentzündung hat.
Anschließend analysierten die Forscher die Antworten von chatgpt und gaben jeder Antwort eine Punktzahl. Im Ergebnis erhielt der Chatbot eine durchschnittliche Bewertung von neun von zehn für die Genauigkeit und wissenschaftliche Validität der Formulierungen. Daraus kamen die Wissenschaftler zu dem Schluss, dass künstliche Intelligenz „eine verlässliche Quelle nichttechnischer Informationen für die Öffentlichkeit“ sei, insbesondere für Menschen ohne besondere wissenschaftliche Kenntnisse.
„Insgesamt baut ChatGPT die Erzählung in Übereinstimmung mit den verfügbaren wissenschaftlichen Daten auf und entlarvt die in sozialen Netzwerken kursierenden Mythen“, sagt Hauptautor Antonio Salas, der nicht nur das Forschungsteam leitet, sondern auch Professor an der medizinischen Fakultät der Universität ist Universität Santiago de Compostela, Spanien „Daher besteht das Potenzial, den Einsatz von Impfstoffen zu steigern. ChatGPT kann kontroverse Themen im Zusammenhang mit Impfstoffen und Impfungen erkennen. Die Sprache, die diese künstliche Intelligenz verwendet, ist nicht zu technisch und daher für die Öffentlichkeit leicht verständlich.“ , verliert aber nicht an wissenschaftlicher Strenge.“
Das Forschungsteam weist jedoch auf die Mängel von ChatGPT bei der Bereitstellung von Impfstoffinformationen hin. Beispielsweise gibt ein Chatbot unterschiedliche Antworten, wenn eine Frage alle zehn Sekunden wiederholt wird. „Ein weiteres Problem, auf das wir gestoßen sind, besteht darin, dass dieses Tool in seiner aktuellen Version auch darauf trainiert werden kann, Antworten zu geben, die nicht mit den wissenschaftlichen Daten übereinstimmen“, sagt Professor Salas. gewünschte Antwort. Dies gilt auch in anderen Zusammenhängen als Impfstoffen. Sie können beispielsweise einen Chatbot zwingen, absurden Erzählungen wie der Theorie der flachen Erde, der Leugnung des Klimawandels oder Einwänden gegen die Evolutionstheorie zuzustimmen.“
Die Studie wurde veröffentlicht in Humanimpfstoffe und Immuntherapeutika.