Generative KI-Tools wie chatgpt, das von OpenAI entwickelt wurde, beeinträchtigen viele Bereiche des Lebens, Produktrezensionen, Journalismus usw. Das jüngste Opfer ist die wissenschaftliche Forschung.

A neue Studie der Indiana University School of Medicine hat das Ausmaß des Einflusses künstlicher Intelligenz auf die wissenschaftliche Forschung offenbart.

Forscher der Universität wollten die Rolle von ChatGPT beim Verfassen wissenschaftlicher Forschungsarbeiten und bei Peer-Review-Analysen untersuchen, seit OpenAI im November 2022 das generative KI-Tool auf den Markt brachte, was zu dessen enormen Auswirkungen auf den Grafik-, Kunst- und Schreibberuf führte. Dies führte dazu, dass viele Hollywood-Studios Autoren und Künstler durch KI ersetzten, was zu Streiks der SAG-AFTRA wegen besserer Bezahlung führte.

Vor diesem Hintergrund analysierte die Indiana University School of Medicine, wie ChatGPT effektiv zum Verfassen wissenschaftlicher Artikel eingesetzt werden kann und wie unterschiedlich diese eingesetzt werden können.

Melissa Kacena, Voice Chair of Research an der Indiana University School of Medicine, sagte zu diesem Thema: „Im Moment möchten viele Zeitschriften nicht, dass die Leute ChatGPT zum Schreiben ihrer Artikel verwenden, aber viele Leute versuchen es immer noch.“ Wir wollten untersuchen, ob ChatGPT einen wissenschaftlichen Artikel schreiben kann und welche verschiedenen Möglichkeiten es gibt, ihn erfolgreich zu nutzen.“

Um die Art und Weise zu untersuchen, wie ChatGPT wissenschaftliche Forschungsarbeiten verfasst, verwendeten die Forscher drei verschiedene Themen – COVID-19 und Knochengesundheit, Frakturen und das Nervensystem, Alzheimer und Knochengesundheit. Sie baten die ChatGPT-Version für 20 US-Dollar pro Monat, wissenschaftliche Artikel zu den drei Themen zu schreiben.

Die Forscher analysierten ChatGPT weiter, indem sie eine Mischung aus Ansätzen verwendeten. Eine davon beinhaltete ausschließlich menschliches Schreiben, eine andere nutzte ChatGPT-Schreiben und eine dritte hatte eine Kombination aus menschlichem und KI-Schreiben.

Siehe auch  ChatGPT-4: Der nächste Schritt in der KI-Evolution

Das Ergebnis der Studie war eine Zusammenstellung von 12 Artikeln, die in der Sonderausgabe von Current Osteoporosis Reports verfügbar ist.

Kacena erklärte, wie sie die Ergebnisse verschiedener Ansätze verglichen, indem sie Daten darüber sammelten, „wie viel Zeit diese menschliche Methode benötigt und wie viel Zeit ChatGPT zum Schreiben und dann für die Fakultät zum Bearbeiten der verschiedenen Artikel benötigt“.

Der herkömmliche Standard für die Begutachtung eines Artikels durch Fachkollegen besteht darin, „eine Literaturrecherche durchzuführen, eine Gliederung zu schreiben, mit dem Schreiben zu beginnen und dann die Fakultätsmitglieder den Entwurf zu überarbeiten und zu bearbeiten“, sagte Kacena.

Die Forscher fanden heraus, dass generierte wissenschaftliche Artikel zu fast 70 Prozent falsche Verweise aufwiesen. Allerdings wiesen die kombinierten Forschungsarbeiten zu Mensch und KI mehr Plagiate auf, insbesondere wenn sie mehr Referenzen erhielten.

Die Studie ergab, dass generative KI-Tools wie ChatGPT den Schreibprozess beschleunigen, da sie den Zeitaufwand für das Schreiben von Artikeln verringern, aber sie erfordern mehr Faktenprüfung als kombiniert geschriebene Artikel mit menschlicher KI.

Wissenschaftliche Hindernisse für den Einsatz generativer KI-Tools wie ChatGPT

Die Forscher identifizierten auch Hindernisse für die Verwendung von ChatGPT zum Schreiben wissenschaftlicher Forschung, da die vom KI-Tool verwendete Sprache nicht für wissenschaftliches Schreiben geeignet ist. Obwohl die Eingabeaufforderungen ein höheres Maß an wissenschaftlichem Schreiben erforderten, entsprechen die von ChatGPT generierten Wörter und Phrasen nicht den Forschungsstandards.

Eine der Autoren der Studie, Lilian Plotkin, Professorin für Physiologie an der Indiana University School of Medicine, bezeichnete die Ergebnisse als „beängstigend“, da sie bedeute, dass sich der Text wiederholte und falsche Verweise und falsche Informationen enthielten.

Siehe auch  So hat sich ein ChatGPT-basiertes Aktienportfolio letzte Woche entwickelt

Dies geschieht zu einer Zeit, in der viele Autoren wie der Game of Thrones-Autor George RR Martin OpenAI wegen systematischen Massendiebstahls verklagt haben, weil sie ihre Arbeit zum Trainieren von KI genutzt haben.

Eine andere Forscherin, Jill Fehrenbacher, Professorin für Pharmakologie an derselben Universität, gab bekannt, dass das Problem dieser KI-Voreingenommenheit weiterhin bestehen bleibt, da viele Nicht-Muttersprachler des Englischen ChatGPT zum Verfassen von Forschungsarbeiten verwenden, obwohl es ihnen in Fachzeitschriften verboten ist.

Fehrenbacher sagte, dass die Leute vielleicht alles selbst schreiben, es aber in ChatGPT ausführen, um Grammatikfehler zu beheben oder ihnen beim Schreiben zu helfen, weshalb es notwendig sei, es angemessen zu verwenden.

„Wir hoffen, der wissenschaftlichen Gemeinschaft einen Leitfaden zur Verfügung zu stellen, damit die Leute, die ihn nutzen wollen, hier einige Tipps und Ratschläge finden“, sagte Fehrenbacher über ihre Forschung.

„Ich denke, es wird bleiben, aber wir müssen verstehen, wie wir es auf eine angemessene Weise nutzen können, ohne den Ruf einer Person zu gefährden oder Fehlinformationen zu verbreiten“, fügte Kacena hinzu.

5/5 - (317 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein