Man sollte meinen, Wissenschaftler wüssten es besser.
Auf frischer Tat
Ein in der Zeitschrift veröffentlichter Artikel Schriftliche Physik Letzten Monat wurde der Gegenstand von Kontroversen nachdem Guillaume Cabanac, ein Informatiker und Integritätsforscher, bemerkte, dass die chatgpt-Abfrage „Antwort neu generieren“ scheinbar versehentlich in den Text kopiert worden war.
Jetzt haben die Autoren zugegeben, dass sie den Chatbot zur Unterstützung bei der Ausarbeitung des Artikels genutzt haben, und sind damit der jüngste Beleg für den besorgniserregenden Einzug der generativen KI in die Wissenschaft.
„Dies ist ein Verstoß gegen unsere ethischen Richtlinien“, sagte Kim Eggleton, Leiterin der Abteilung Peer Review und Forschungsintegrität beim Verlag IOP Publishing Schriftliche Physik, erzählt Natur.
Das Papier wurde nun zurückgezogen, weil es die Verwendung des Chatbots nicht erklärte – was je nach Standpunkt entweder ein Sturm im Wasserglas oder ein Zeichen für die Zukunft der Wissenschaft ist.
Peer Review Paladin
Seit 2015 unternimmt Cabanac eine Art Kreuzzug, um andere veröffentlichte Artikel aufzudecken, die nicht offen über den Einsatz von KI-Technologie sprechen, was damals kaum mehr als eine Kuriosität war. Da Computer sich von reinem Kauderwelsch zu überzeugenden, menschenähnlichen Kompositionen entwickelt haben, ist der Kampf härter geworden. Dies hat jedoch nur die Entschlossenheit von Cabanac gestärkt, der dabei geholfen hat, Hunderte von KI-generierten Manuskripten aufzudecken.
„Er ist frustriert über gefälschte Papiere“, sagt Cyril Labbé, ein befreundeter Informatiker und Cabanacs Partner bei der Verbrechensbekämpfung. erzählt Natur letztes Jahr. „Er ist wirklich bereit, alles zu tun, um zu verhindern, dass so etwas passiert.“
Wer sorgfältig darauf achtet, seine Spuren zu verwischen, hinterlässt keine offensichtlichen Hinweise wie „als KI-Sprachmodell“, obwohl es zum Glück für Spürhunde wie Cabanac immer noch viele tun. Kürzlich entdeckte er einen weiteren Artikel, der in der Zeitschrift veröffentlicht wurde Ressourcenrichtlinie, das mehrere dieser hirntoten Werbegeschenke enthielt. Der Verlag sei „sich des Problems bewusst“, hieß es Natur diese Woche und untersucht den Vorfall.
Darüber hinaus können KI-Modelle oft die Fakten durcheinander bringen und sind möglicherweise einfach zu dumm, um die Mathematik und Fachsprache, die in wissenschaftlichen Arbeiten zum Einsatz kommt, genau wiederzugeben – wie in der Ressourcenrichtlinie Cabanac fand heraus, dass die Studie unsinnige Gleichungen enthielt.
ChatGPT kann auch aus dem Nichts falsche Behauptungen hervorbringen, ein Phänomen, das vielleicht zu großzügig als „halluzinierend“ beschrieben wird. Ein typisches Beispiel: Ein vorab gedruckter Artikel von letzter Woche wurde ebenfalls als teilweise KI-generiert eingestuft, nachdem einem dänischen Professor aufgefallen war, dass er Artikel unter seinem Namen zitierte, die nicht existierten.
Überwältigende Zahlen
Wenn man bedenkt, wie streng der Peer-Review-Prozess ist – oder zumindest sein sollte –, ist es alarmierend, dass von der KI hergestellte Betrüger durch das Raster schlüpfen.
Vielleicht hat es nicht jeder verstanden. Die Allgegenwart der Technologie ist schließlich noch jung. Oder, sagt der Forscher und Fake-Paper-Detektiv David Bimler, Peer-Reviewer haben einfach keine Zeit, nach solchen Dingen zu suchen.
„Das gesamte Wissenschaftsökosystem steht vor der Zerstörung oder geht zugrunde“, sagte Bimler Natur. „Die Zahl der Gatekeeper kann nicht mithalten.“
Und das mag die bittere Wahrheit sein. Die Überprüfung von Papieren erfordert viel Zeit und Fachwissen, aber es dauert nur ein paar Minuten, bis eine KI am laufenden Band ein Papier herausbringt, egal wie minderwertig es auch sein mag.
Mehr zum Thema KI: Der Generalstaatsanwalt jedes einzelnen Staates fordert Maßnahmen gegen KI-generiertes Material über Kindesmissbrauch