Text / Ji Shuye Am 9. August veröffentlichte die Zeitschrift Physica Scripta einen Artikel mit dem Ziel, neue Lösungen für komplexe mathematische Gleichungen zu finden. Es schien wahr, aber der Wissenschaftsdetektiv Guillaume Cabanac entdeckte auf der dritten Seite des Manuskripts einen seltsamen Satz: „regenerative Reaktion“. Der Satz ist die Bezeichnung für eine Schaltfläche auf chatgpt, einem kostenlosen KI-Chatbot, der flüssigen Text generiert, wenn Benutzer Fragen stellen. Cabanac, ein Informatiker an der Universität Toulouse in Frankreich, veröffentlichte sofort einen Screenshot der entsprechenden Seite auf PubPeer, einer Website, auf der Wissenschaftler veröffentlichte Forschungsergebnisse diskutieren. Gemma Conroy analysierte den Fall in der neuesten Ausgabe von Nature’s „Wissenschaftliche Detektive erkennen unehrlichen ChatGPT-Einsatz in Papieren“ (Wissenschaftliche Detektive erkennen unehrlichen ChatGPT-Einsatz in Papieren). „Dies verstößt gegen unsere Ethikrichtlinie“ Kim Eggleton, Leiterin der Abteilung Peer Review und Forschungsintegrität beim Physica Scripta-Verlag IOP Publishing in Bristol, Großbritannien, sagte, die Autoren hätten der Zeitschrift später bestätigt, dass sie ChatGPT verwendet hätten, um bei der Erstellung des Manuskripts zu helfen. Während des zweimonatigen Peer-Reviews (das Papier wurde im Mai eingereicht und die überarbeitete Version wurde im Juli verschickt) oder während des Formatierungsprozesses wurden keine Auffälligkeiten festgestellt. Der Verlag hat nun beschlossen, das Papier zurückzuziehen, da die Autoren zum Zeitpunkt der Einreichung nicht erklärt hatten, dass sie das Tool nutzen. „Dies verstößt gegen unsere Ethikrichtlinien“, sagte Eggleton. Der korrespondierende Autor Abdullahi Yusuf, der gemeinsam an der Biruni-Universität in Istanbul und der Libanesisch-Amerikanischen Universität in Beirut arbeitet, antwortete nicht auf die Bitte von Nature um einen Kommentar. Dies ist nur die „Spitze des Eisbergs“ der von ChatGPT unterstützten Manuskripte Dies ist nicht der einzige Fall, in dem von ChatGPT unterstützte Manuskripte ohne Anerkennung in peer-reviewte Zeitschriften gelangen. Seit April hat Cabanac mehr als ein Dutzend Zeitschriftenartikel mit durchgesickerten ChatGPT-Sätzen wie „Antworten regenerieren“ oder „Als KI-Sprachmodell …“ gekennzeichnet und auf PubPeer veröffentlicht. Viele Verlage, darunter Elsevier und Springer Nature, haben erklärt, dass Autoren ChatGPT und andere LLM-Tools (Large Language Model) verwenden können, um bei der Erstellung von Manuskripten zu helfen, sofern sie dies deklarieren. (Das Nachrichtenteam von Nature ist redaktionell unabhängig von seinem Herausgeber Springer Nature.) Die Suche nach Schlüsselphrasen wird nur naive Verwendungen von ChatGPT aufdecken (wobei die Autoren vergessen haben, offensichtliche Zeichen herauszuschneiden), sodass die Anzahl der unveröffentlichten, von Experten begutachteten Artikel, die mit der nicht offengelegten Hilfe von ChatGPT erstellt wurden, wahrscheinlich noch größer ist. „Das ist nur die Spitze des Eisbergs“, sagte Cabanac. (Auch die offensichtlichen Anzeichen haben sich geändert: Anfang des Jahres wurde die Schaltfläche „Antwort neu generieren“ von ChatGPT in einem Tool-Update in „Neu generieren“ geändert.) Cabanac hat in einigen in Elsevier-Zeitschriften veröffentlichten Artikeln typische ChatGPT-Sätze entdeckt. Der neueste Artikel, der am 3. August in der Zeitschrift Resource Policy veröffentlicht wurde, untersucht die Auswirkungen des E-Commerce auf die Effizienz fossiler Brennstoffe in Entwicklungsländern. Cabanak bemerkte, dass einige der Gleichungen in der Arbeit keinen Sinn ergaben, aber das Werbegeschenk lag über den Tabellen: „Bitte beachten Sie, dass ich als KI-Sprachmodell keine spezifischen Tabellen generieren oder Tests durchführen kann …“ Ein Elsevier-Sprecher sagte gegenüber Nature, dass der Verlag „sich des Problems bewusst sei“ und es untersuche. Die Autoren des Papiers, von der Liaoning-Universität in Shenyang, China, und der China Academy of International Trade and Economic Cooperation in Peking, antworteten nicht auf die Bitte von Nature um einen Kommentar. Schreckliche Sprachkompetenz „Das wird das Problem hundertmal schlimmer machen“ Artikel, die ganz oder teilweise mit Computersoftware verfasst wurden, ohne dass die Autoren diese Tatsache offenlegen, sind nichts Neues. Matt Hodgkinson, Research Integrity Manager beim in London ansässigen UK Research Integrity Office, sagt jedoch, dass sie oft subtile, aber erkennbare Spuren enthalten, wie etwa bestimmte Sprachmuster oder falsch übersetzte „Folterphrasen“, die sie als von ihrem menschlichen schriftlichen Gegenstück unterscheidend kennzeichnen. Aber Hodgkinson sagte, wenn die Forscher die ChatGPT-Boilerplate-Phrasen entfernen würden, wäre es „fast unmöglich“, den glatten Text komplexerer Chatbots zu erkennen. „Es ist im Wesentlichen ein Wettrüsten“, sagte er, „zwischen Betrügern und Leuten, die versuchen, sie fernzuhalten.“ Cabanac und andere fanden auch unbekannte Verwendungen von ChatGPT (über aufschlussreiche Formulierungen) in von Experten begutachteten Konferenzbeiträgen und Vorabdrucken (Manuskripte, die nicht von Experten begutachtet wurden). Wenn diese Fragen auf PubPeer gestellt werden, geben die Autoren manchmal zu, dass sie ChatGPT (nicht beansprucht) verwendet haben, um bei der Erstellung des Werks zu helfen. Elisabeth Bik, Mikrobiologin und unabhängige Beraterin für Forschungsintegrität in San Francisco, Kalifornien, sagt, dass der rasante Aufstieg von ChatGPT und anderen generativen KI-Tools den Papierfabriken Schlagkraft verleihen wird – Unternehmen, die Fake News produzieren und an Forscher verkaufen, die ihre Veröffentlichungsproduktion steigern wollen. Manuskript . . „Das wird das Problem hundertmal schlimmer machen“, sagte Bick. „Ich mache mir große Sorgen, dass wir einen Zustrom von Papieren haben, die wir nicht einmal mehr erkennen.“ Es gibt keine Referenzen, das ist ein Warnsignal Unveröffentlichte Probleme mit LL.M.-Dissertationen in Fachzeitschriften deuten auf ein tiefer liegendes Problem hin: Peer-Reviewer haben oft keine Zeit, Manuskripte gründlich auf Warnsignale zu prüfen, sagt David Bimler, der sich unter dem Pseudonym Smoot · Smut Clyde die gefälschte Arbeit vorstellt. „Das gesamte wissenschaftliche Ökosystem veröffentlicht entweder oder stirbt“, sagte Beemler, ein pensionierter Psychologe, der früher an der Massey University in Palmerston North, Neuseeland, arbeitete. „Die Zahl der Hausmeister kann nicht mithalten.“ Hodgkinson sagte, dass die Tendenz von ChatGPT und anderen LL.M.s, falsche Referenzen auszuspucken, ein Zeichen dafür sein könnte, dass Peer-Reviewer nach der Verwendung dieser Tools in Manuskripten suchen. „Wenn die Referenz nicht existiert, ist das ein Warnsignal“, sagte er. Beispielsweise berichtete die Website Retraction Watch über einen mit ChatGPT verfassten Vorabdruck über Tausendfüßler; ein in der Arbeit zitierter Forscher entdeckte ihn und stellte fest, dass das Zitat gefälscht war. Rune Stensvold, Mikrobiologe am Nationalen Seruminstitut in Kopenhagen, hatte ein Problem mit gefälschten Referenzen, als ihn ein Student um eine Kopie einer Arbeit bat, die Stensvold offenbar 2006 gemeinsam mit einem Kollegen verfasst hatte. existieren. Der Student bat den KI-Chatbot, eine Arbeit über Blastocystis, eine Gattung von Darmparasiten, zu empfehlen, und der Chatbot stellte eine Referenz mit Stanswolds Namen darauf zusammen. „Es sieht echt aus“, sagte er. „Es sagt mir, dass ich, wenn ich eine Arbeit rezensiere, wahrscheinlich zuerst einen Blick auf den Abschnitt mit den Referenzen werfen sollte.“

Siehe auch  Der ChatGPT-Verkehr ist drei Monate in Folge zurückgegangen und die Schulsaison wird voraussichtlich ihren Tiefpunkt erreichen | TechNews Technology News
5/5 - (266 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein