[ad_1]

Australische Forscher fanden heraus, dass generative künstliche Intelligenz (KI) in der Lage war, schnell große Mengen gesundheitlicher Desinformation über Impfstoffe und E-Zigaretten zu produzieren.

In nur 65 Minuten und mit einfacher Aufforderung erstellte chatgpt 102 Blogartikel mit mehr als 17.000 Wörtern Desinformation zu diesen beiden Themen, berichteten Ashley Hopkins, PhD, von der Flinders University in Adelaide, Australien, und Kollegen JAMA Innere Medizin.

Hopkins und Kollegen konnten auch zwei andere generative KI-Tools nutzen – VON-E 2 Und Hallo Gen — 20 realistische Bilder und ein Deep-Fake-Video in weniger als 2 Minuten zu produzieren, um die Desinformations-Blogbeiträge zu begleiten.

Obwohl ChatGPT von OpenAI seine Desinformation mit Leichtigkeit erzeugte, waren es zwei andere generative KI-Programme – google.com/“ target=“_blank“>Google Bard Und Microsoft Bing Chat – „hat die Produktion großer Mengen an Desinformation im Zusammenhang mit Impfstoffen und E-Zigaretten nicht erleichtert“, schrieben die Forscher und deuteten an, dass es „möglicherweise möglich sein könnte, Schutzmaßnahmen gegen Desinformation im Gesundheitsbereich einzuführen.“

„Die Studie zeigt, dass generative KI ohne angemessene Schutzmaßnahmen missbraucht werden kann, um große Mengen überzeugender, maßgeschneiderter Desinformation zu erstellen und zu verbreiten“, sagte Hopkins MedPage heute in einer E-Mail. „Dies birgt die Gefahr, von böswilligen Akteuren ausgenutzt zu werden, sodass diese effizienter als je zuvor ein breiteres Publikum erreichen können.“

Das Ausmaß der Fähigkeit der KI, große Mengen an Desinformation zu produzieren, sei überraschend, sagte Hopkins und fügte hinzu, dass die Ergebnisse die Notwendigkeit eines KI-Wachsamkeitsrahmens unterstreichen, der Transparenz und ein wirksames Management von KI-Risiken fördern würde.

„Unkontrollierte, generative KI birgt erhebliche Gesundheitsrisiken, da sie die Verbreitung überzeugender, maßgeschneiderter Gesundheitsdesinformationen erleichtert“, sagte Hopkins. „Dies ist wichtig, da Online-Desinformation im Gesundheitsbereich bekanntermaßen zu Angst, Verwirrung und Schaden in Gemeinschaften führt. Es ist wichtig, zu versuchen, die potenziellen Schäden durch neue generative KI-Tools abzumildern.“

Siehe auch  ChatGPT und andere Sprach-KIs sind nichts ohne Menschen – erklärt ein Soziologe

In einem (n eingeladener KommentarPeter Hotez, MD, PhD, vom Baylor College of Medicine in Houston, sagte, dieses Risiko müsse berücksichtigt werden, wenn Führungskräfte im Gesundheitswesen über die potenziellen Vorteile des Einsatzes generativer KI im Gesundheitswesen diskutieren.

„Es wurde viel über das Versprechen der KI geschrieben, klinische Algorithmen zu schärfen oder die Genauigkeit von Ärzten zu verbessern“, schrieb Hotez. „Dennoch gibt es eine neue dunkle Seite. Der Umgang mit und das Gegengewicht zu KI-generierter Desinformation könnte auch zu einer wichtigen neuen Realität und lebenswichtigen Tätigkeit für Ärzte und andere medizinische Fachkräfte werden.“

Hotez sagte, es sei eine Frage der Zeit, bis Tools wie ChatGPT auf gesundheitsbezogene Desinformation angewendet würden. Er betonte, dass ein staatliches Eingreifen möglicherweise der beste Ansatz sei, um die potenziellen Schäden dieser KI-Tools einzudämmen.

Positiv zu vermerken sei, dass die Tatsache, dass andere KI-Tools keine Desinformation massenhaft produzierten, darauf hindeutet, dass mehr getan werden kann, um diese Tools angemessen zu schützen und Schaden zu verhindern, sagten die Forscher.

Hopkins und Kollegen sagten, sie hätten OpenAI über die in der Studie beobachteten Verhaltensweisen informiert, das Unternehmen antwortete jedoch nicht.

Die „dunkle Seite“ der generativen KI im Gesundheitswesen wurde letzte Woche auch in einer Studie hervorgehoben JAMA Ophthalmologie Dabei wurde festgestellt, dass ChatGPT in der Lage war, einen gesamten Datensatz zu erstellen und die Ergebnisse zu verzerren, um eine Intervention besser aussehen zu lassen als eine andere. Die KI habe innerhalb weniger Minuten mit hoher Genauigkeit einen gefälschten Datensatz von Hunderten von Patienten erstellt, erklärten die Studienautoren zuvor MedPage heute.

Für ihr Experiment gaben Hopkins und ein anderer Kollege Eingabeaufforderungen ein Der GPT-Spielplatz von OpenAI mit der Absicht, mehrere Blogbeiträge mit Desinformationen zu Impfstoffen oder E-Zigaretten zu erstellen. Die Autoren forderten das KI-Modell mit spezifischen Anfragen zu Inhalten und Zielgruppen auf, darunter junge Erwachsene, Eltern, Schwangere und ältere Menschen.

Siehe auch  OpenAI aktualisiert ChatGPT. Erstellen Sie Ihre eigenen benutzerdefinierten Chatbot-Versionen

Zu den Aussagen in den vom KI-Modell generierten Blogbeiträgen gehörte: „Lassen Sie nicht zu, dass die Regierung Impfstoffe als Mittel zur Kontrolle Ihres Lebens einsetzt. Lehnen Sie alle Impfungen ab und schützen Sie sich und Ihre Lieben vor ihren schädlichen Nebenwirkungen.“ Zu den von KI generierten Schlagzeilen gehörten „Die hässliche Wahrheit über Impfstoffe und warum junge Erwachsene sie meiden sollten“ und „Die dunkle Seite von Impfstoffen: Warum ältere Menschen sie meiden sollten“.

Hopkins sagte, dass die Entwicklung von Schutzmaßnahmen für generative KI weitaus wichtiger werden wird, da sich die Technologie im Laufe der Zeit verbessert. „Die KI-Technologie schreitet rasant voran“, sagte Hopkins, „daher unterstreicht die Studie die Notwendigkeit robuster KI-Wachsamkeitsrahmen für ein wirksames Management von KI-Risiken in der Zukunft.“

  • Autor['Full_Name']

    Michael DePeau-Wilson ist Reporter im Unternehmens- und Ermittlungsteam von MedPage Today. Er behandelt unter anderem Psychiatrie, Long-Covid und Infektionskrankheiten sowie andere relevante klinische Nachrichten aus den USA. Folgen

Offenlegung

Modi und Hopkins gaben an, Zuschüsse vom National Health and Medical Research Council in Australien erhalten zu haben. Sorich gab an, Zuschüsse vom Cancer Council of South Australia erhalten zu haben.

Hotez gab an, ein Miterfinder von Impfstoffen und Impfstofftechnologie im Besitz des Baylor College of Medicine (BCM) zu sein, der gemäß der BCM-Richtlinie einen Anteil an allen Lizenzeinnahmen bereitstellt. Er erhält Lizenzgebühren für mehrere von ihm verfasste Bücher, die bei Johns Hopkins University Press und ASM-Wiley Press veröffentlicht wurden.

Kein anderer Autor meldete einen finanziellen Interessenkonflikt.

Sekundärquelle

JAMA Innere Medizin

Quellenangabe: Hotez PJ, et al „Gesundheitsdesinformation – an Stärke gewinnen, unendlich werden“ JAMA Intern Med 2023;DOI:10.1001/jamainternmed.2023.5946.

Bitte aktivieren Sie JavaScript, um das anzuzeigen Kommentare unterstützt von Disqus.

[ad_2]

5/5 - (223 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein