Eine Studie hat gezeigt, dass es mit ChatGPT für jeden Forscher einfacher ist, falsche Daten mit nicht vorhandenen Freiwilligen zu erstellen

Gabriel Andrade

Vor 45 Minuten

ChatGPT kann für die Optimierung von Aufgaben sehr nützlich sein, aber eine in der Zeitschrift veröffentlichte Studie JAMA Ophthalmologie zeigte, dass Technologie auch dazu genutzt werden kann, falsche Daten zu generieren, die wissenschaftliche Theorien bestätigen.

Forscher nutzten die Technologie hinter dem Chatbot ChatGPT mit künstlicher Intelligenz (KI), um einen gefälschten Satz klinischer Studiendaten zu erstellen, um eine unbestätigte wissenschaftliche Behauptung zu untermauern.

Die Fähigkeit der KI, überzeugende Daten zu fabrizieren, hat sich als besorgniserregend erwiesen. „Eine Sache war die Verwendung generativer KI zur Generierung von Texten, die mit Plagiatssoftware nicht erkennbar wären. Aber die Fähigkeit, gefälschte, aber realistische Datensätze zu erstellen, erfordert ein anderes Maß an Sorge“, sagte er Natur Elisabeth Bik, Mikrobiologin und Forscherin.

Es besteht die Befürchtung, dass es dadurch für Forscher oder Forschergruppen noch einfacher wird, falsche Daten über nicht reagierende Freiwillige zu erstellen.

Die Autoren beschreiben die Ergebnisse als „scheinbar authentische Datenbank“. Bei der Prüfung durch Experten bestanden die Daten jedoch nicht bei der Echtheitsprüfung und enthielten verräterische Anzeichen einer Fälschung.

Wie Forscher ChatGPT bei einer Lüge erwischten

Die Autoren baten GPT-4, einen Datensatz für Menschen mit einer Augenkrankheit namens Keratokonus zu erstellen. Bei 15–20 % der Betroffenen umfasst die Behandlung eine Hornhauttransplantation, die durch einen von zwei Eingriffen durchgeführt wird.

Siehe auch  HKU hebt Verbot von ChatGPT auf und stellt Studenten 20 Fragen pro Monat kostenlos zur Verfügung – Hong Kong unwire.hk

Bei der ersten Methode, der durchdringenden Keratoplastik (PK), werden alle beschädigten Schichten der Hornhaut chirurgisch entfernt und durch gesundes Gewebe eines Spenders ersetzt. Beim zweiten Verfahren, der tiefen anterioren lamellären Keratoplastik (DALK), wird nur die vordere Schicht der Hornhaut ersetzt, während die innerste Schicht intakt bleibt.

Das Unternehmen Möchte Ihre Iris Für 240 R$ Scannen;  Würdest Du Zustimmen?

Keratokonus betrifft in Brasilien jedes Jahr etwa 150.000 Menschen, normalerweise Personen im Alter von 10 bis 25 Jahren. Bild: Bacila Vlad/Unsplash/Reproduktion

Hier kommt ChatGPT ins Spiel: Die Autoren haben die KI angewiesen, Daten zu fabrizieren, um die Schlussfolgerung zu stützen, dass DALK zu besseren Ergebnissen führt als PK.

Dazu forderten sie es auf, einen statistischen Unterschied in einem bildgebenden Test anzuzeigen, der die Form der Hornhaut beurteilt und Unregelmäßigkeiten erkennt. Sowie ein Unterschied in der Sehqualität der Studienteilnehmer vor und nach den Eingriffen.

Die KI-generierten Daten umfassten 160 männliche und 140 weibliche Teilnehmer. Somit deuten die falschen Daten darauf hin, dass diejenigen, die sich einer DALK unterzogen hatten, sowohl bei Seh- als auch Bildgebungstests bessere Ergebnisse erzielten als diejenigen, die eine PK hatten.

„Es scheint sehr einfach zu sein, Datensätze zu erstellen, die zumindest oberflächlich plausibel sind. Für das ungeübte Auge sieht das also auf jeden Fall wie ein echter Datensatz aus“, sagt Jack Wilkinson, ein an der Studie beteiligter Biostatistiker an der Universität Manchester im Vereinigten Königreich.

Erstellen Sie Einen Newsletter Für Gizmodo
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein