ChatGPT steht auch mehr als ein Jahr nach seinem öffentlichen Debüt weiterhin im Rampenlicht.
Der Chatbot für künstliche Intelligenz (KI) wurde im November 2022 vom Technologieunternehmen OpenAI in San Francisco, Kalifornien, als kostenloses Tool veröffentlicht. Zwei Monate später war ChatGPT bereits in einer Handvoll Forschungsarbeiten als Autor aufgeführt.
ChatGPT ein Jahr später: Wer nutzt es, wie und warum?
Akademische Verlage bemühten sich darum, Richtlinien zur Verwendung von ChatGPT und anderen großen Sprachmodellen (LLMs) im Schreibprozess bekannt zu geben. Bis zum letzten Oktober hatten 87 von 100 führenden wissenschaftlichen Fachzeitschriften Autoren Leitlinien zur generativen KI bereitgestellt, mit der Texte, Bilder und andere Inhalte erstellt werden können, berichteten Forscher am 31. Januar in der
Der BMJ
1
Aber das ist nicht die einzige Art und Weise, wie ChatGPT und andere LLMs begonnen haben, das wissenschaftliche Schreiben zu verändern. Im wettbewerbsintensiven Umfeld der Wissenschaft wird jedes Tool, das es Forschern ermöglicht, „mehr Veröffentlichungen zu produzieren, ein sehr attraktives Angebot sein“, sagt der Forscher für digitale Innovation Savvas Papagiannidis von der Newcastle University in Newcastle upon Tyne, Großbritannien.
Die generative KI verbessert sich weiter – daher müssen Verlage, Förderagenturen und Wissenschaftler darüber nachdenken, was eine ethische Nutzung von LLMs ausmacht und was eine übermäßige Abhängigkeit von diesen Tools über eine Forschungslandschaft aussagt, die Hyperproduktivität fördert.
Nutzen Wissenschaftler LLMs routinemäßig zum Verfassen von Arbeiten?
Vor seiner Veröffentlichung war ChatGPT bei weitem nicht so benutzerfreundlich wie heute, sagt Informatikerin Debora Weber-Wulff von der HTW Berlin. „Die Schnittstellen für die älteren GPT-Modelle waren etwas, das nur ein Informatiker lieben konnte.“
In der Vergangenheit benötigten Forscher in der Regel spezielles Fachwissen, um fortgeschrittene LLMs zu nutzen. Nun „hat die GPT das bis zu einem gewissen Grad demokratisiert“, sagt Papagiannidis.
Diese Demokratisierung hat den Einsatz von LLMs beim wissenschaftlichen Schreiben beschleunigt. Im Jahr 2023
Natur
In einer Umfrage unter mehr als 1.600 Wissenschaftlern gaben fast 30 % an, dass sie generative KI-Tools zum Schreiben von Manuskripten verwendet hätten, und etwa 15 % sagten, sie hätten sie zum Schreiben von Förderanträgen verwendet.
Und LLMs haben noch viele weitere Einsatzmöglichkeiten. Sie können Wissenschaftlern dabei helfen, Code zu schreiben, Forschungsideen zu entwickeln und Literaturrecherchen durchzuführen. Auch LLMs anderer Entwickler verbessern sich, beispielsweise Gemini von google und Claude 2 von Anthropic, einem KI-Unternehmen in San Francisco. Forscher mit den richtigen Fähigkeiten können sogar ihre eigenen personalisierten LLMs entwickeln, die genau auf ihren Schreibstil und ihr wissenschaftliches Fachgebiet abgestimmt sind, sagt Thomas Lancaster, Informatiker am Imperial College London.
Welche Vorteile ergeben sich für Forscher?
Etwa 55 % der Befragten
Natur
Die Umfrage kam zu dem Schluss, dass ein großer Vorteil der generativen KI ihre Fähigkeit ist, Texte für Forscher zu bearbeiten und zu übersetzen, deren Muttersprache nicht Englisch ist. In einer Umfrage des Europäischen Forschungsrats (ERC), der Forschung in Europa finanziert, waren laut einem im Dezember veröffentlichten Bericht 75 % der mehr als 1.000 ERC-Fördermittelempfänger der Meinung, dass generative KI bis 2030 Sprachbarrieren in der Forschung verringern wird
2
Von den Befragten der ERC-Umfrage waren 85 % der Meinung, dass generative KI repetitive oder arbeitsintensive Aufgaben wie Literaturrecherchen übernehmen könnte. Und 38 % waren der Meinung, dass generative KI die Produktivität in der Wissenschaft steigern wird, indem sie beispielsweise Forschern dabei hilft, Arbeiten schneller zu verfassen.
Was sind die Nachteile?
Obwohl die Ausgabe von ChatGPT überzeugend menschenähnlich sein kann, warnt Weber-Wulff, dass LLMs dennoch Sprachfehler machen können, die den Lesern möglicherweise auffallen. Dies ist einer der Gründe, warum sie sich dafür einsetzt, dass Forscher die Verwendung von LLM in ihren Arbeiten erwähnen. Chatbots sind auch dafür berüchtigt, erfundene Informationen, sogenannte „Halluzinationen“, zu erzeugen.
Wie ChatGPT und andere KI-Tools das wissenschaftliche Publizieren stören könnten
Und die Produktivitätssteigerung, die LLMs mit sich bringen könnten, hat auch einen Nachteil. Eine Beschleunigung des Papierschreibprozesses könnte den Durchsatz in Zeitschriften steigern und möglicherweise die Zahl der Redakteure und Gutachter noch weiter überfordern, als sie ohnehin schon sind. „Angesichts der ständig steigenden Zahl an Veröffentlichungen – weil die Zahlen jedes Jahr steigen – stehen einfach nicht genügend Leute zur Verfügung, um weiterhin kostenlose Peer-Reviews für Verlage durchzuführen“, sagt Lancaster. Er weist darauf hin, dass neben Forschern, die LLMs offen nutzen und dies anerkennen, auch einige die Tools stillschweigend nutzen, um Forschung von geringem Wert zu betreiben.
Es sei bereits schwierig, das Meer veröffentlichter Arbeiten zu durchforsten, um sinnvolle Forschungsergebnisse zu finden, sagt Papagiannidis. Wenn ChatGPT und andere LLMs die Leistung steigern, wird sich dies als noch schwieriger erweisen.
„Wir müssen zurückgehen und uns ansehen, wie das Belohnungssystem in der Wissenschaft aussieht“, sagt Weber-Wulff. Das aktuelle „Publish or Perish“-Modell belohnt Forscher dafür, dass sie ständig Beiträge veröffentlichen. Viele Leute argumentieren jedoch, dass sich dies hin zu einem System ändern muss, bei dem Qualität Vorrang vor Quantität hat. So erlaube die Deutsche Forschungsgemeinschaft beispielsweise, sagt Weber-Wulff, dass Förderantragsteller nur zehn Publikationen in einen Antrag aufnehmen dürfen. „Sie möchten Ihre Arbeit darauf konzentrieren, wirklich gute Arbeiten auf hohem Niveau zu erstellen“, sagt sie.
Wie stehen Wissenschaftsverlage zum LLM-Einsatz?
Laut der Studie in Der
BMJ
24 der 100 größten Verlage – zusammen verantwortlich für mehr als 28.000 Zeitschriften – hatten bis Oktober letzten Jahres Leitlinien zur generativen KI bereitgestellt
1
Springer Nature beispielsweise gibt an, dass die LLM-Nutzung in den Methoden oder einem anderen Abschnitt des Manuskripts dokumentiert werden sollte, eine Richtlinie, die im Januar 2023 eingeführt wurde. Generative KI-Tools erfüllen jedoch nicht die Kriterien für die Autorenschaft, da dies „mit Verantwortung verbunden ist.“ für die Arbeit, und KI-Tools können diese Verantwortung nicht übernehmen.“ ( Natur Das Nachrichtenteam von ist redaktionell unabhängig von seinem Herausgeber Springer Nature.)
Die Durchsetzung dieser Regeln ist leichter gesagt als getan, da es für Verleger und Peer-Reviewer schwierig sein kann, nicht offengelegten, von der KI generierten Text zu erkennen. Einige Detektive haben es durch subtile Formulierungen und Fehlübersetzungen erwischt. Anders als bei Plagiaten, bei denen eindeutige Quellenangaben vorliegen, „kann man nicht beweisen, dass etwas von KI geschrieben wurde“, sagt Weber-Wulff. Trotz der Bemühungen der Forscher, LLM-Erkennungstools zu entwickeln, „haben wir keines gesehen, von dem wir dachten, dass es überzeugend genug ist“, um die Einreichungen in Fachzeitschriften zu überprüfen, sagt Holden Thorp, Chefredakteur der Zeitschrift
Wissenschaft Familie von Zeitschriften.Wie sieht es mit anderen Verwendungsmöglichkeiten aus?
Obwohl seit November die American Association for the Advancement of Science veröffentlicht Wissenschaft – Ermöglicht immer noch einen offengelegten Einsatz generativer KI bei der Erstellung von Manuskripten verbietet die Verwendung von LLMs während der Peer-Review , sagt Thorp. Das liegt daran, dass er und andere dabei sind Wissenschaft Er möchte, dass die Gutachter ihre volle Aufmerksamkeit dem zu bewertenden Manuskript widmen, fügt er hinzu. Ebenso verbietet die Richtlinie von Springer Nature Peer-Reviewern, Manuskripte in generative KI-Tools hochzuladen.
Wissenschaftliche Experten entdecken unehrliche ChatGPT-Nutzung in Veröffentlichungen
Einige Förderagenturen, darunter die US National Institutes of Health und das Australischer Forschungsrat , verbieten Gutachtern aus Bedenken hinsichtlich der Vertraulichkeit, generative KI zur Prüfung von Förderanträgen zu verwenden (Fördervorschläge werden als vertrauliche Dokumente behandelt und andere Personen könnten auf die in öffentlichen LLMs eingegebenen Daten zugreifen). Aber der ERC Scientific Council, der den ERC leitet, hat eine veröffentlicht Stellungnahme im Dezember anerkannt, dass Forscher KI-Technologien zusammen mit anderen Formen externer Hilfe nutzen, um Förderanträge vorzubereiten. In diesen Fällen müsse der Autor weiterhin die volle Verantwortung für sein Werk übernehmen, hieß es.
„Viele Organisationen kommen jetzt mit sehr defensiven Stellungnahmen“, in denen sie von den Autoren verlangen, jeglichen Einsatz generativer KI anzuerkennen, sagt Tom Henzinger, Mitglied des ERC Scientific Council und Informatiker am Institute of Science and Technology Austria in Klosterneuburg.
Für ihn scheint sich ChatGPT nicht davon zu unterscheiden, einem Kollegen per Textnachricht Feedback zu geben. „Nutzen Sie jede Ihnen zur Verfügung stehende Ressource“, sagt Henzinger.
Ungeachtet der sich ständig ändernden Regeln rund um generative KI werden Forscher sie weiterhin nutzen, sagt Lancaster. „Es gibt keine Möglichkeit, den Einsatz von Technologie wie ChatGPT zu überwachen.“