Guillaume Cabanac

Letzte Woche veröffentlichte eine Umweltzeitschrift einen Artikel über den Einsatz erneuerbarer Energien bei der Sanierung kontaminierter Flächen. Um es zu lesen, müsste man 40 Euro bezahlen. Aber Sie würden immer noch nicht sicher wissen, wer es geschrieben hat.

Angeblich von Forschern in China verfasst: „Unsere Erde wiederbeleben: Die Kraft grüner Energie bei der Bodensanierung für eine nachhaltige Zukunft freisetzen„enthält den überflüssigen Ausdruck „Antwort neu generieren“ am Ende eines Methodenabschnitts. Für diejenigen, die es nicht kennen: „Antwort regenerieren“ ist eine Schaltfläche in OpenAI chatgpt“>ChatGPT Das veranlasst den Chatbot, eine unbefriedigende Antwort zu überarbeiten.

„Haben die Autoren versehentlich die Ausgabe von ChatGPT kopiert und die Beschriftung der Schaltfläche eingefügt?“ fragte sich Guillaume CabanacProfessor für Informatik an der Universität Toulouse in Frankreich ein Kommentar zu PubPeer.

Und er fügte hinzu: „Wie kommt es, dass dieser bedeutungslose Wortlaut das Korrekturlesen durch die Mitautoren, Herausgeber, Gutachter, Lektoren und Schriftsetzer überstanden hat?“

Der Fall ist das jüngste Beispiel für einen wachsenden Trend zur schlampigen, nicht deklarierten Nutzung von ChatGPT in der Forschung. Bisher war Cabanac, dessen Arbeit bedeckt mit Natur letzten Monat, hat gepostet mehr als 30 Aufsätze auf PubPeer, die diese beiden verräterischen, frei schwebenden Wörter enthalten. Und dazu zählen nicht Artikel, die in räuberischen Fachzeitschriften erscheinen, sagte der wissenschaftliche Detektiv gegenüber Retraction Watch.

„Seit Jahrzehnten wird Computersoftware zur Unterstützung der Autoren eingesetzt“, erzählte uns Cabanac. „Denken Sie für Leute wie mich nur an Grammarly oder DeepL. Da ich kein englischer Muttersprachler bin, gehe ich zu WordReference und manchmal auch zu DeepL. Aber was ich tue, ich schaue mir das Ergebnis an und korrigiere die Fehler.“

Siehe auch  Delhi HC weigert sich, sich auf ChatGPT zu verlassen, und warnt davor, menschliche Intelligenz in der Gerichtsentscheidung zu ersetzen

ChatGPT und andere Tools, die auf KI-Systemen basieren, die als große Sprachmodelle bekannt sind neige dazu, Dinge zu erfinden. Wie wir Anfang des Jahres berichteten, kann die freiberufliche Tätigkeit für Forscher, die Hilfe bei der Suche nach Referenzen suchen, ein Problem darstellen.

„Manchmal bringt es Dinge zum Vorschein, die nicht im Kopf der Forscher waren“, sagte Cabanac. „Und das ist für mich der Wendepunkt. Wenn Leute das System nutzen, um etwas zu generieren, was sie nicht im Sinn hatten, wie zum Beispiel Daten zu fabrizieren oder Text mit Verweisen auf Werke zu generieren, die sie noch nicht einmal gelesen haben, ist das inakzeptabel.“

Nach Ansicht einiger Verlage haben Chatbots durchaus legitime Einsatzmöglichkeiten beim Verfassen von Aufsätzen. Der Schlüssel liegt darin Lassen Sie die Leser wissen, was getan wurde.

Der korrespondierende Autor des Umweltpapiers, Kangyan Li von ESD China Ltd., reagierte nicht auf Anfragen nach Kommentaren. Auf der Website seines Unternehmens ist auch kein Ansprechpartner aufgeführt.

Ein Sprecher von Springer Nature, dem Herausgeber der Zeitschrift Umweltwissenschaften und Umweltverschmutzungsforschung In dem Artikel erschien, hieß es, der Herausgeber untersuche das Problem „sorgfältig im Einklang mit den Best Practices von COPE“, könne aber zum jetzigen Zeitpunkt keine weiteren Details mitteilen.

Wie die Autoren, ganz zu schweigen von der Zeitschrift, den seltsamen Satz übersehen konnten, ist unklar. „Vielleicht geht es nicht um die Autoren, vielleicht handelt es sich um eine Papierfabrik“, sagte Cabanac und bezog sich dabei auf zwielichtige Organisationen, die Autorenplätze für wissenschaftliche Arbeiten verkaufen, die möglicherweise gefälschte Daten enthalten.

Er fügte hinzu, dass er und sein häufiger Mitarbeiter Alexander Magazinovein weiterer Detektiv, haben Dutzende verdächtige Papiere gefunden In Umweltwissenschaften und Umweltverschmutzungsforschung. Sie haben den Chefredakteur der Zeitschrift, Philippe Garrigues von der Université de Bordeaux in Frankreich, letztes Jahr über die Probleme informiert.

Siehe auch  Ich habe ChatGPT nach Ethereum Classic gefragt, da das Jahr 2024 näher rückt

In einer von Retraction Watch eingesehenen E-Mail teilte Garrigues Cabanac mit, dass er bereits Maßnahmen ergriffen habe und dass „das noch nicht vorbei ist“. Garrigues hinzugefügt (aus dem Französischen übersetzt):

Glauben Sie mir, ich bin mir aller Probleme bewusst, die in der Welt des wissenschaftlichen Publizierens auftreten können, und jeden Tag tauchen neue auf. Ich könnte ganze Bücher über meine Erfahrungen als Herausgeber mehrerer Zeitschriften und die Fälle schreiben, denen ich begegnet bin. Wachsamkeit und Aufmerksamkeit müssen stets die Regel sein.

Garrigues antwortete nicht auf eine Bitte um Stellungnahme.

„Regeneration der Reaktion“ ist nicht das einzige Anzeichen für eine nicht deklarierte Chatbot-Beteiligung, die Cabanac gesehen hat. Ein noch ungeheuerlicheres Beispiel ist der Satz „Als KI-Sprachmodell habe ich …“, was er bisher in neun Arbeiten gefunden hat.

Cabanac macht sich Sorgen darüber, wie solch eklatante Schlamperei, wohl die Spitze des Eisbergs, sowohl an der Redaktion als auch an den Peer-Reviewern vorbeigehen kann.

„Sie sollen die Wächter der Wissenschaft sein – die Herausgeber, die Gutachter“, sagte er. „Ich bin Informatiker. Ich beschäftige mich nicht mit diesen Zeitschriften. Dennoch erhalte ich die Warnmeldung „Antwort neu generieren“. Das ist verrückt.”

Wie Retraction Watch? Sie können eine machen steuerlich absetzbarer Beitrag zur Unterstützung unserer Arbeitfolgen Sie uns auf Twitterwie wir auf Facebookfügen Sie uns zu Ihrem hinzu RSS-Readeroder abonnieren Sie unsere tägliche Verdauung. Wenn Sie einen Widerruf finden, ist das der Fall nicht in unserer Datenbankdu kannst google.com/forms/d/e/1FAIpQLSeAsw4i5J8M7sOQ9GiG0_dglkim9gdPPba92yZRLfCq4u-o7w/viewform?c=0&w=1″>Lass es uns hier wissen. Für Kommentare oder Feedback senden Sie uns eine E-Mail an [email protected].

5/5 - (101 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein