Bibliothekar Andrew Gray hat eine „sehr überraschende“ Entdeckung gemacht. Er analysierte fünf Millionen im letzten Jahr veröffentlichte wissenschaftliche Studien und entdeckte a plötzlicher Anstieg in der Verwendung bestimmter Wörter, wie z. B. akribisch (plus 137 %), kompliziert (117 %), lobenswert (83 %) und akribisch (59 %). Der Bibliothekar vom University College London kann für diesen Anstieg nur eine Erklärung finden: Zehntausende Forscher nutzen chatgpt – oder andere ähnliche Large Language Model-Tools mit künstlicher Intelligenz –, um ihre Studien zu schreiben oder sie zumindest zu „polieren“.

Es gibt eklatante Beispiele. Ein Team chinesischer Wissenschaftler veröffentlichte eine Studie über Lithium-Batterien am 17. Februar. Die Arbeit – veröffentlicht in einem Fachmagazin des Elsevier-Verlags – beginnt so: „Sicherlich, hier ist eine mögliche Einführung für Ihr Thema: Lithium-Metall-Batterien sind vielversprechende Kandidaten für….“ Die Autoren haben ChatGPT offenbar um eine Einführung gebeten und diese versehentlich so kopiert, wie sie ist. Ein separater Artikel in einer anderen Elsevier-Zeitschrift, veröffentlicht von israelischen Forschern am 8. März, enthält den Text: Zusammenfassend lässt sich sagen, dass die Behandlung bilateraler iatrogener Erkrankungen mir sehr leid tut, aber ich habe keinen Zugriff auf Echtzeitinformationen oder patientenspezifische Daten. da ich ein KI-Sprachmodell bin.“ Und vor ein paar Monaten veröffentlichten drei chinesische Wissenschaftler eine verrückte Zeichnung einer Ratte mit einer Art Riesenpenis, ein Bild, das mit künstlicher Intelligenz für eine Studie an Spermienvorläuferzellen erstellt wurde.

Andrew Gray schätzt, dass mindestens 60.000 wissenschaftliche Studien (mehr als 1 % der im Jahr 2023 analysierten) mit Hilfe von ChatGPT – einem Ende 2022 eingeführten Tool – oder ähnlichem verfasst wurden. „Ich denke, extreme Fälle, in denen jemand eine ganze Studie mit ChatGPT schreibt, sind selten“, sagt Gray, ein 41-jähriger schottischer Bibliothekar. Seiner Meinung nach wird künstliche Intelligenz in den meisten Fällen angemessen eingesetzt, um den Text zu „polieren“ – Tippfehler zu identifizieren oder die Übersetzung ins Englische zu erleichtern –, aber es gibt eine große Grauzone, in der einige Wissenschaftler die Unterstützung von ChatGPT sogar noch weiter nutzen, ohne den Text zu überprüfen Ergebnisse. „Im Moment ist es unmöglich zu wissen, wie groß diese Grauzone ist, da wissenschaftliche Zeitschriften von den Autoren nicht verlangen, dass sie die Verwendung von ChatGPT deklarieren, es gibt sehr wenig Transparenz“, beklagt er.

Siehe auch  Analysten gehen davon aus, dass die Popularität von InQubeta explodieren wird, da ChatGPT und Bard weit verbreitete Akzeptanz finden

Sprachmodelle mit künstlicher Intelligenz verwenden bestimmte Wörter überproportional, wie das Team von James Zou an der Stanford University demonstriert hat. Dabei handelt es sich meist um positiv konnotierte Begriffe wie lobenswert, akribisch, aufwendig, innovativ und vielseitig. Zou und seine Kollegen warnten im März, dass die Gutachter wissenschaftlicher Studien selbst diese Programme nutzen, um ihre Bewertungen vor der Veröffentlichung der Arbeiten zu verfassen. Die Stanford-Gruppe analysierte Peer-Reviews von Studien, die auf zwei internationalen Konferenzen zur künstlichen Intelligenz vorgestellt wurden, und stellte fest, dass die Wahrscheinlichkeit, dass das Wort akribisch vorkommt, um das 35-fache gestiegen war.

Bibliothekar Andrew Gray vom University College London.University College London

Zous Team hingegen konnte in den Korrekturen, die in den renommierten Fachzeitschriften der USA vorgenommen wurden, keine nennenswerten Spuren von ChatGPT entdecken Natur Gruppe. Die Verwendung von ChatGPT war mit Peer-Reviews von geringerer Qualität verbunden. „Ich finde es wirklich besorgniserregend“, erklärt Gray. „Wenn wir wissen, dass die Verwendung dieser Tools zum Verfassen von Rezensionen zu qualitativ minderwertigen Ergebnissen führt, müssen wir darüber nachdenken, wie sie zum Verfassen von Studien verwendet werden und was das bedeutet“, sagt der Bibliothekar am University College London. Ein Jahr nach der Einführung von ChatGPT gab einer von drei Wissenschaftlern zu, dass er das Tool zum Verfassen seiner Studien verwendet hatte, so eine Studie Umfrage in der Zeitschrift Natur.

Grays Analyse zeigt, dass das Wort „kompliziert“ im Jahr 2023 in 109.000 Studien vorkam, mehr als doppelt so viel wie der Durchschnitt von 50.000 in den Vorjahren. Der Begriff „akribisch“ tauchte von etwa 12.300 Studien im Jahr 2022 auf über 28.000 im Jahr 2023 auf. Während die Fälle von „lobenswert“ von 6.500 auf fast 12.000 anstiegen. Der Forscher scherzt, dass seine Kollegen ihm zur Akribie seines Berichts gratuliert haben, bei dem es sich noch um einen Entwurf handelt, dessen Veröffentlichung in einer Fachzeitschrift noch aussteht.

Siehe auch  Elon Musks xAI könnte seine Chancen gegen ChatGPT halluzinieren

Nur sehr wenige Studien berichten darüber, ob sie künstliche Intelligenz eingesetzt haben. Gray warnt vor der Gefahr eines „Teufelskreises“, in dem nachfolgende Versionen von ChatGPT mit wissenschaftlichen Artikeln der alten Versionen trainiert werden, was zu immer lobenswerteren, komplizierteren, sorgfältigeren und vor allem inhaltslosen Studien führt.

Der Dokumentationsprofessor Ángel María Delgado Vázquez betont, dass sich die neue Analyse auf englischsprachige Studien konzentriert. „Forscher, die kein Englisch als Muttersprache sprechen, nutzen ChatGPT häufig als Hilfe beim Schreiben und zur Verbesserung der englischen Sprache“, sagt Delgado Vázquez, Forscher an der Universität Pablo de Olavide in Sevilla, Spanien. „In meiner Umgebung verwenden die Leute ChatGPT hauptsächlich für eine Erstübersetzung oder sogar, um diese Übersetzung direkt beizubehalten“, sagt er. Der spanische Professor sagt, er wünsche sich eine Analyse der Herkunft der Autoren, die die ungewöhnlichen Begriffe verwenden.

Ein weiteres Lieblingswort der KI ist „Delve“. Der Forscher Jeremy Nguyen von der Swinburne University of Technology (Australien) hat berechnet, dass „delve“ in mehr als 100 Ländern vorkommt 0,5 % des Medizinstudiumswo er vor ChatGPT weniger als 0,04 % betrug. Tausende Forscher vertiefen sich plötzlich.

Bibliothekar Andrew Gray warnt vor der Gefahr, dass die Menschheit mit dieser neuen, akribisch künstlichen Sprache infiziert wird. Nguyen selbst hat am 8. April im sozialen Netzwerk den offiziellen ChatGPT-Account eröffnet

Bibliothekar Andrew Gray warnt davor, dass die Gefahr einer Ansteckung einer breiteren Gesellschaft mit dieser akribisch künstlichen neuen Sprache besteht. Nguyen selbst gab im sozialen Netzwerk X zu, dass es so sei passiert ihm: „In letzter Zeit verwende ich tatsächlich „delve“ in meiner eigenen Sprache – wahrscheinlich, weil ich so viel Zeit damit verbringe, mit GPT zu sprechen.“ Am 8. April wurde das offizielle ChatGPT-Konto auf X mischte sich ein: „Ich liebe es einfach zu vertiefen, was soll ich sagen?“

Siehe auch  Wie 10.000 Praktikanten: Wie ChatGPT Investmentanalysten befreien kann

Melden Sie sich an für Unser wöchentlicher Newsletter um mehr englischsprachige Berichterstattung von der EL PAÍS USA Edition zu erhalten

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein