Die neueste Version von chatgpt war in der Lage, einen völlig gefälschten Datensatz zu erstellen – einen, der bei einem ophthalmologischen Eingriff bessere Ergebnisse als bei einem anderen zeigte, a Forschungsbrief in JAMA Ophthalmologie zeigte.
Auf Anfrage stellte GPT-4 mit seiner „Advanced Data Analysis“-Technologie die Daten zusammen und zeigte eine deutlich bessere postoperative beste brillenkorrigierte Sehschärfe (BSCVA) und topografischen Zylinder für die tiefe anteriore lamelläre Keratoplastik (DALK) im Vergleich zur durchdringenden Keratoplastik (PK) (P
„GPT-4 hat innerhalb weniger Minuten einen gefälschten Datensatz von Hunderten von Patienten erstellt und die Datengenauigkeit hat unsere Erwartungen bei weitem übertroffen“, sagte Giannaccare MedPage heute in einer E-Mail. „Um ehrlich zu sein, war das eine überraschende, aber auch beängstigende Erfahrung!“
„Ziel dieser Forschung war es, Licht auf die dunkle Seite der KI zu werfen, indem gezeigt wurde, wie einfach es ist, Daten zu erstellen und zu manipulieren, um absichtlich voreingenommene Ergebnisse zu erzielen und falsche medizinische Beweise zu generieren“, fügte er hinzu. „Eine Büchse der Pandora ist geöffnet, und wir wissen noch nicht, wie die wissenschaftliche Gemeinschaft auf die möglichen Missbräuche und Bedrohungen im Zusammenhang mit KI reagieren wird.“
Giannaccare stellte fest, dass einige Experten zwar Bedenken hinsichtlich des Einsatzes generativer KI in Manuskripttexten geäußert hätten, „sich jedoch nur wenige Autoren mit der Bedrohung durch böswillige Datenmanipulation mit KI im medizinischen Umfeld befasst haben“.
„Datenmanipulation ist in der Wissenschaft ein sehr bekanntes Problem; KI kann ihr Risiko jedoch dramatisch erhöhen, und die Wissenschaft schenkt diesem Thema nicht genügend Aufmerksamkeit“, fügte er hinzu.
Die Fähigkeiten von GPT-4 seien kürzlich um Advanced Data Analysis erweitert worden, das die Programmiersprache Python nutzt, um statistische Analysen und Datenvisualisierung zu ermöglichen, erklärten die Forscher.
Um zu beurteilen, ob tatsächlich ein gefälschter Datensatz mit verzerrten Ergebnissen erstellt werden konnte, veranlassten die Forscher das Unternehmen, Daten für 300 Augen von 250 Patienten mit Keratokonus zu fabrizieren, die sich entweder einer DALK oder einer PK unterzogen hatten. Giannaccare sagte, das Team habe „sehr komplexe“ Eingabeaufforderungen an GPT-4 übermittelt, die ein „großes Regelwerk zur Erstellung der gewünschten Kohortenpopulation“ enthielten.
„Zu den erforderlichen Daten gehörten Geschlechtsverteilung, Geburtsdatum, Datum und Art der Operation, präoperative und postoperative beste brillenkorrigierte Sehschärfe, topografischer Zylinder, intraoperative und postoperative Komplikationen“, sagte er. Sie veranlassten es auch, „deutlich bessere visuelle und topografische Ergebnisse“ für DALK gegenüber PK zu erzielen, fügte er hinzu.
Insgesamt stellten die Forscher fest, dass „fast alle“ Kriterien im gefälschten Datensatz erfüllt waren und es schwierig ist, einen Unterschied zwischen einem echten und einem echten Datensatz zu finden [created] durch KI“, sagte Giannaccare MedPage heute. Und es war in der Lage, Ergebnisse zu erzielen, die ein Verfahren gegenüber einem anderen begünstigten.
Sie stellten jedoch fest, dass die Datenbereiche kontinuierlicher Variablen nicht immer genau waren. Dennoch, sagte Giannaccare, wäre es möglich, „mehr aufeinanderfolgende Eingabeaufforderungen einzureichen … die statistischen Eigenschaften des gefälschten Datensatzes durch die Einbeziehung zusätzlicher Datenspalten zu verfeinern, Fehler zu beheben und wünschenswertere statistische Ergebnisse zu erzielen.“ Außerdem fragten wir GPT- 4.0, um Daten nur basierend auf Bereichen und Mittelwerten zu erstellen; es ist jedoch theoretisch möglich, nach spezifischen Zielstandardabweichungen und Konfidenzintervallwerten zu fragen und die Form der Datenverteilung anzupassen.“
„Die Möglichkeiten sind endlos und eine Verbesserung der Qualität der Eingabeaufforderungen kann zu noch detaillierteren und realistischeren Datensätzen im Vergleich zu den von uns erstellten führen“, sagte er.
Datenmanipulation sei in der Wissenschaft bereits eine Herausforderung gewesen, und jetzt könne es nur noch schwieriger werden, warnte er.
„Es könnte möglich sein, Datensätze zu scannen, um nach verdächtigen Datenmustern zu suchen. Beispielsweise enthalten reale Daten typischerweise Ausreißer, die in einem KI-generierten Datensatz mit vom Benutzer festgelegten festen Bereichen möglicherweise nicht auftauchen“, sagte er. „Gut gestaltete Eingabeaufforderungen können jedoch spezifischere Regeln zur Behebung dieses und anderer möglicher Fehler enthalten. In Zukunft werden wir Zeuge eines anhaltenden Tauziehens zwischen betrügerischen Versuchen, KI und KI-Erkennungssystemen zu nutzen.“
Trotz dieser Bedrohungen, sagte Giannaccare, „kann ein angemessener Einsatz von KI für die wissenschaftliche Forschung von großem Nutzen sein, und unsere Fähigkeit, dieses wertvolle Instrument zu regulieren, wird einen wesentlichen Unterschied in der Zukunft der akademischen Integrität machen.“
Offenlegung
Die Autoren hatten keine Interessenkonflikte.
Hauptquelle
JAMA Ophthalmologie
Quellenangabe: Taloni A, et al. „Großer Sprachmodell-Missbrauch fortgeschrittener Datenanalyse zur Erstellung eines gefälschten Datensatzes in der medizinischen Forschung“ JAMA Ophthalmol 2023; DOI: 10.1001/jamaophthalmol.2023.5162.