Eine Glühbirne ging in Som Biswas Kopf an, als er zum ersten Mal von chatgpt erfuhr. Biswas, ein Radiologe am Health Science Center der University of Tennessee, stieß im Internet auf einen Artikel über den Chatbot von OpenAI, als dieser im November 2022 veröffentlicht wurde er könnte es nutzen, um zumindest eine Facette seiner Karriere ein ganzes Stück einfacher zu machen.

„Ich bin Forscher und veröffentliche regelmäßig Artikel“, sagte Biswas gegenüber The Daily Beast. „Diese beiden Dinge sind in meinem Gehirn miteinander verbunden: Wenn ChatGPT zum Schreiben von Geschichten und Witzen verwendet werden kann, warum nicht für die Forschung oder Veröffentlichung für ernsthafte Artikel?“

Er brauchte einen Machbarkeitsnachweis, also ließ Biswas den Bot einen Artikel über ein Thema schreiben, mit dem er bereits sehr vertraut war: medizinisches Schreiben. Nach Versuch und Irrtum konnte Biswas einen Artikel erstellen, indem er ChatGPT Abschnitt für Abschnitt aufforderte. Als er fertig war, reichte er das Papier ein Radiologie, eine monatliche Fachzeitschrift der Radiological Society of North America. „Am Ende sagte ich dem Redakteur: ‚Alles, was Sie lesen, wurde von KI geschrieben‘, das hat sie also sehr beeindruckt“, sagte er.

Ein paar Tage später die Zeitung: „ChatGPT und die Zukunft des medizinischen Schreibens“, erschien in Radiologie nach einem Peer-Review, so Biswas. Nachdem es vorbei war, hatte er das Gefühl, dass er an etwas dran war. ChatGPT könnte für mehr verwendet werden, als nur mit kreativen Projekten herumzualbern. Er könnte es tatsächlich verwenden, um seine Karriere und Forschung zu unterstützen.

Das Gesundheitswesen wird sich verändern. Das Schreiben wird sich verändern. Die Forschung wird sich verändern.

Som Biswas, der Universität von Tennessee

Was Biswas tut, ist nicht unbedingt einzigartig. Seit der Veröffentlichung von ChatGPT verwenden Akademiker und Forscher wie Biswas große Sprachmodelle (Large Language Models, LLMs) als Werkzeug, um sie bei ihrem eigenen Schreib- und Forschungsprozess zu unterstützen – und gelegentlich mit Hilfe der Bots Papiere aus dem ganzen Stoff zu erstellen. Während sie auf diese Weise hilfreich waren, haben sie auch eine grundlegende Veränderung in der wissenschaftlichen Gemeinschaft bewirkt, die viele Experten über die Erosion der Glaubwürdigkeit in der wissenschaftlichen Veröffentlichung beunruhigt.

Seit seinem ersten Artikel verwendet Biswas den Chatbot von OpenAI zum Schreiben google.com/citations?user=37CkqwcAAAAJ&hl=en“>mindestens 16 Beiträge in vier Monaten und veröffentlichte fünf Artikel in vier verschiedenen Zeitschriften. Das Neueste war als Kommentar in der Zeitschrift veröffentlicht Kinderradiologieam 28. April. Darin wird Biswas als alleiniger Autor aufgeführt, mit einer Bestätigung am Ende, dass ChatGPT den Artikel geschrieben und bearbeitet hat.

Nach eigenen Angaben von Biswas sind die von ihm erstellten Papiere jedoch nicht auf Themen innerhalb seiner radiologischen Expertise beschränkt. Tatsächlich hat er den Bot verwendet, um Artikel über die Rolle von ChatGPT in der zu schreiben Militär, Ausbildung, Landwirtschaft, sozialen Medien, Versicherung, GesetzUnd Mikrobiologie. Er hat diese erfolgreich in Zeitschriften veröffentlicht, die sich auf verschiedene Nischendisziplinen spezialisiert haben, darunter eine Arbeit über Computerprogrammierung im Mesopotamisches Journal für Informatik, und zwei Leserbriefe an die globale Erwärmung Und Gesundheitswesen im Annalen der Biomedizinischen Technik.

Vor einem Jahr hätte diese Art der Ausgabe vielleicht völlig unrealistisch gewirkt. Papiere erfordern Dutzende, wenn nicht Hunderte von Stunden der Recherche, bevor sie überhaupt zu Wort kommen. Forscher in den Naturwissenschaften veröffentlichen höchstens ein paar Arbeiten pro Jahr. Und es ist ziemlich selten, dass jemand über ein Thema außerhalb seines Lebenswerks schreibt.

Siehe auch  China zensiert den möglicherweise größten Datenhack der Geschichte

Diejenigen, die ChatGPT zur Erstellung von Papieren verwenden, haben ihre Produktion jedoch bereits in den vergangenen Jahren um Größenordnungen übertroffen – Biswas ist einer von ihnen. Und seine Motivation geht über das bloße Sehen seiner Byline hinaus. Wie er The Daily Beast sagte, möchte er ein Evangelist für eine neue Technologie sein, von der er glaubt, dass sie die Art und Weise, wie alle Forscher ihre Arbeit erledigen, für immer verändern wird.

„Das Gesundheitswesen wird sich verändern. Das Schreiben wird sich verändern. Die Forschung wird sich ändern“, sagte Biswas. „Ich versuche nur, es jetzt zu veröffentlichen und zu zeigen, damit die Leute davon erfahren und mehr entdecken können.“

„Die Leute werden albern.“

Die Veröffentlichung von ChatGPT löste eine Welle der Besorgnis darüber aus, wie das LLM Branchen und Praktiken wie Copywriting, Journalismus, Studentenaufsätze und sogar das Schreiben von Comedy auf den Kopf stellen würde. Auch die akademische Welt und die wissenschaftliche Literatur bereiteten sich auf einen bevorstehenden Umbruch vor – einen, der wohl viel drastischer sein wird als bisher angenommen.

„Es gab einen wirklich dramatischen Anstieg der verschiedenen Artikel, die wir bekommen haben“, sagte Stefan Duma, Professor für Ingenieurwissenschaften an der Virginia Tech, gegenüber The Daily Beast. Duma ist Chefredakteur der Annalen der Biomedizinischen Technik. Er sagte, er habe in den letzten Monaten einen exponentiellen Anstieg der Anzahl verschiedener Artikel gesehen, die zur Veröffentlichung in seiner Zeitschrift eingereicht wurden – einschließlich der beiden, die er von Biswas in den Leserbriefen veröffentlichte.

„Die Zahl der [letters to the editor] Die Anzahl der Einreichungen stieg von praktisch null auf wahrscheinlich zwei oder drei pro Woche – also vielleicht ein Dutzend pro Monat“, sagte er. „Das ist astronomisch groß, weil wir normalerweise nur ein oder zwei Briefe über irgendetwas pro Monat bekommen. Jetzt bekommen wir mehr als 10 nur über ChatGPT, was eine große Steigerung ist.“

Leserbriefe, erklärte Duma, seien im Grunde der Meinungsteil einer Zeitschrift. Es gibt weniger Einschränkungen hinsichtlich der Art des Schreibens und der Recherchetiefe, die erforderlich sind, um hier Beiträge zu veröffentlichen. Aus diesem Grund war Duma bereit, Biswas-Artikel über die globale Erwärmung und die öffentliche Gesundheit in der Rubrik zu veröffentlichen.

Er fügte jedoch hinzu, dass er viel mehr Artikel, die von ChatGPT und anderen LLMs erstellt wurden, aufgrund ihrer geringen Qualität abgelehnt habe.

„Die Leute werden albern mit ihnen“, sagte er. „Die Leute schicken mir 10 gleiche Briefe mit einem geänderten Wort. Wir versuchen sicherzustellen, dass einige dieser Dinge einzigartig sind. Aber es ist keine vollständige Peer-Review. Es steht den Leuten frei, in diesen Leserbriefen zu schreiben, was sie wollen. Also haben wir einige abgelehnt, wenn es überhaupt nichts Neues hinzufügt, und es sich nur irgendwie wiederholt.“

(Mesopotamisches Journal für Informatik Und Radiologie antwortete nicht auf Anfragen nach Kommentaren von The Daily Beast.)

Siehe auch  Die besten neuen Funktionen in der Android 13 Beta

Zeitschriftenredakteure wie Duma sind nicht die einzigen, die den Einfluss bemerkt haben, den ChatGPT auf die akademische Welt hatte. Der KI-Boom hat eine völlig neue Landschaft geschaffen, in der sich Forscher zurechtfinden – und es wird immer schwieriger, je mehr und ausgefeilter diese Tools werden.

Angesichts des wirklich erdrückenden Veröffentlichungsdrucks denke ich, dass Akademiker anfangen werden, sich auf ChatGPT zu verlassen, um einige der langweiligeren Teile des Schreibens zu automatisieren.

Brett Karlan, Stanford University

Elisabeth Bik, Mikrobiologin und Expertin für wissenschaftliche Integrität, sagte gegenüber The Daily Beast, dass sie bezüglich der Verwendung von LLMs in der Wissenschaft geteilter Meinung sei. Einerseits räumte sie ein, dass es ein unschätzbares Werkzeug für Forscher werden könnte, deren Muttersprache nicht Englisch ist, die es verwenden könnten, um zusammenhängende Sätze und Absätze zu konstruieren.

Andererseits hat sie auch den Anstieg von Forschern verfolgt, die den Chatbot offensichtlich missbraucht haben, um allein in den letzten Monaten Dutzende von Artikeln zu produzieren. Sie behauptete, dass viele dieser „Autoren“ auch nicht die Tatsache anerkannt hätten, dass sie ChatGPT oder andere Modelle verwendet hätten, um bei der Erstellung der Artikel zu helfen.

„Mindestens [Biswas] erkennt an, dass er ChatGPT verwendet, also müssen Sie ihm etwas Anerkennung zollen“, sagte Bik. „Es gibt eine Reihe von anderen, denen ich bereits begegnet bin, die ebenfalls enorme und unglaubliche Mengen an Artikeln veröffentlicht haben, ohne ChatGPT anzuerkennen. Diese Leute haben einfach viel zu viel veröffentlicht. Das ist einfach nicht realistisch möglich.“

Der Grund, erklärt Bik, ist einfach: „Zitationen und die Anzahl der Veröffentlichungen sind zwei der Maßstäbe, an denen Akademiker gemessen werden.“ Je mehr Sie haben, desto legitimer und erfahrener wirken Sie möglicherweise in den Augen akademischer Institutionen und wissenschaftlicher Organisationen. „Wenn Sie also einen künstlichen Weg finden, diese Dinge anzukurbeln, fühlt es sich unfair an, weil er jetzt alle Leistungsmessungen gewinnen wird.“

Die zunehmende Nutzung von ChatGPT ist auch ein düsteres Spiegelbild der Erwartungen, die an Forscher in der akademischen Welt gestellt werden. „Angesichts des wirklich erdrückenden Veröffentlichungsdrucks werden Akademiker meiner Meinung nach anfangen, sich auf ChatGPT zu verlassen, um einige der langweiligeren Teile des Schreibens zu automatisieren“, sagte Brett Karlan, Postdoktorand für KI-Ethik an der Stanford University, gegenüber The Daily Beast in einem Email. „Und es wäre sehr wahrscheinlich, dass die gleichen Leute, die kaum veröffentlichbare Papiere am laufenden Band produzieren und sie an Raubjournale schicken, Workflows finden werden, die dies mit ChatGPT automatisieren.“

Bik ist auch besorgt, dass die Verbreitung von LLMs nur die sogenannten Papiermühlen, ein Begriff aus der Forschung, der Schwarzmarktorganisationen beschreibt, die die traditionelle akademische Forschung untergraben, indem sie betrügerische wissenschaftliche Arbeiten erstellen, die echter Forschung ähneln, und die Autorenschaft für legitime Studien verkaufen. Von Papierfabriken produzierte wissenschaftliche Arbeiten sind oft stark plagiiert und verwenden Daten und Vermögenswerte wieder. „Sie können sich eine Person vorstellen, die ein guter Promptschreiber ist, der nur eine Arbeit pro Minute herausbringen und dann Arbeiten an Autoren verkaufen kann, die sie brauchen“, sagte Bik.

Während es also einigen Akademikern wie Biswas Hoffnungen ein sehr nützliches Werkzeug sein könnte, schaffen ChatGPT und andere LLMs eine Art perfekten Sturm der Leichtigkeit und Effizienz, der es schlechten Akteuren ermöglichen könnte, einen Vorteil aus einer akademischen Verlagsbranche zu ziehen, die bisher unvorbereitet ist um diese Herausforderungen zu meistern.

Siehe auch  Laut einer Studie führt ChatGPT in Notfällen Diagnosen „so gut“ durch wie ein Arzt

Ein akademischer Game Changer

Die Probleme, mit denen Wissenschaft und Forschungsveröffentlichungen heute konfrontiert sind, sind genau dieselben, mit denen zahlreiche Branchen wie Medien und Journalismus zu kämpfen haben, wenn es um diese fortschrittlichen Chatbots geht: die Erosion der Glaubwürdigkeit und das Schadenspotenzial.

LLMs und KI im weiteren Sinne haben eine lange und schmutzige Geschichte mit Voreingenommenheit, die zu zahlreichen gemeldeten Fällen von Schäden durch Rassismus und Sexismus geführt hat. Chatbots wie ChatGPT sind da keine Ausnahme. Zum Beispiel in den ersten Tagen nach seiner Veröffentlichung, Benutzer meldeten Instanzen in dem das LLM von OpenAI Dinge tat, wie den Benutzern zu sagen, dass nur weiße Männer gute Wissenschaftler sind und dass das Leben eines Kindes nicht gerettet werden sollte, wenn es ein afroamerikanischer Junge wäre.

Bias ist bei KI zu einem Dauerproblem geworden. Auch wenn wir sehen, dass die Technologie immer ausgefeilter wird, scheinen Vorurteile immer zu bleiben. Diese Bots werden anhand riesiger Datensätze trainiert, die von Menschen stammen – voreingenommene, rassistische, sexistische, frauenfeindliche Menschen –, die im Endprodukt auftauchen können, egal wie viele Filter und Leitplanken KI-Entwickler versuchen einzuführen.

Akademische Zeitschriften versuchen, mit dem halsbrecherischen Tempo dieser neuen Technologien Schritt zu halten, die sich von Minute zu Minute weiterentwickeln und leistungsfähiger werden. Duma sagte The Daily Beast, dass sein Tagebuch Annalen der Biomedizinischen Technik hatte vor kurzem eine neue Richtlinie erlassen, die es LLMs verbietet, als Co-Autoren aufgeführt zu werden, und nicht zulässt, dass solche Artikel als reguläre Forschungsartikel veröffentlicht werden.

„Autorenschaft ist sehr ernst und wir nehmen sie sehr ernst“, sagte Duma. „Jedes Mal also, wenn wir eine Arbeit haben, müssen die Autoren unterschreiben, dass sie wesentlich zu der Arbeit beigetragen haben. Daran kann ChatGPT nicht teilnehmen. ChatGPT kann kein Autor sein.“

Er räumte jedoch ein, dass diese Tools hier bleiben werden. Etwas anderes zu sagen, wäre nicht nur ignorant – es könnte sogar potenziell gefährlich sein, da es der Branche nicht erlauben würde, sich entsprechend anzupassen. „Ich denke, die Leute müssen sich anschnallen und sich darauf vorbereiten“, sagte Duma. „Es ist hier und es wird ein Teil unseres Lebens sein, und wahrscheinlich wird es immer mehr ein Teil sein, wenn wir uns vorwärts bewegen.“

In der Zwischenzeit plant Biswas, ChatGPT weiterhin zu verwenden, um seinen Schreibprozess in Zukunft zu unterstützen. Er freut sich besonders über die Veröffentlichung der neuesten Version von ChatGPT und seine neuen Funktionen, insbesondere seine multimodalen Fähigkeiten. Dies ist die Fähigkeit des Modells, sowohl Bilder als auch Texteingaben zu verstehen – etwas, von dem er sagte, dass es einen weiteren Wendepunkt in der Beziehung zwischen KI und Forschern darstellen wird.

„Bild zu Text ist ein Wendepunkt, besonders für die Radiologie, weil Bilder das sind, was wir tun“, sagte Biswas. „Wenn uns das helfen wird, dann werde ich wohl noch ein paar Artikel veröffentlichen, die sich damit befassen – denn wenn ich es nicht tue, wird es jemand anderes tun.“

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein