Das ist eine Schande.

Elfenbeinturm

Mit diesen KI-generierten Bildern eines übergroßen Rattenschwanzes und jetzt mit Aufsätzen, die offensichtlich von chatgpt oder anderen Chatbots verfasst wurden, hat die akademische Gemeinschaft eindeutig ein großes KI-Problem.

Als 404 Medien BerichteKI-generierte Arbeiten werden nicht nur in minderwertigen Fachzeitschriften, sondern auch in einigen seriösen Fachzeitschriften ausgegeben – was nicht nur die zunehmende Verbreitung von KI, sondern auch bestehende Probleme in Bezug auf Qualität, Zulassungsstandards und Bezahlung verdeutlicht -Geschäftsstrukturen auch im akademischen Bereich spielen.

In den letzten Wochen haben Forscher X-formerly-Twitter genutzt, um das Problem vorzustellen, das leicht aufgedeckt werden kann, indem man google Scholar, die Zeitschriftendatenbank des Suchgiganten, nach Werbephrasen wie „Stand meiner letzten Wissensaktualisierung“ und „Ich“ durchsucht keinen Zugriff auf Echtzeitdaten haben.“

In einem Beitrag des Blogs Leben nach meinem Ph.D.zahlreiche Papiere mit den Phrasen waren offensichtlich.

Gemischte Tasche

Beim Durchsehen der vom Blogger hervorgehobenen Zeitschriften scheint es, dass einige räuberische Zeitschriften sind, wie Leute in der Wissenschaft Zeitschriften nennen, die dies tun fast alles veröffentlichen für den richtigen Geldbetrag – aber andere, so scheint es, sind nicht ganz so offensichtlich voller Mist.

Als 404 Anmerkungen: Mindestens ein Artikel scheint so unverhohlen von einem Chatbot kopiert worden zu sein, dass die Leute, die ihn bei der angesehenen Fachzeitschrift Chemie eingereicht haben Oberflächen und Grenzflächenwelche hat den Artikel veröffentlicht Nach der Peer-Review habe ich nicht einmal die Einführung des Chatbots herausgenommen.

Siehe auch  ChatGPT-Fieber breitet sich auf US-Arbeitsplätze aus und löst für einige Alarm aus

Geschrieben von Bellingcat Forscherin Kolina Koltaiein Screenshot des Papiers mit dem Titel „„Die dreidimensionale poröse Netzstruktur des Cu-basierten Metall-Organik-Gerüst-Aramid-Zellulose-Separators verbessert die elektrochemische Leistung von Lithium-Metall-Anodenbatterien“, enthält in seiner Einleitung den Satz „Sicherlich, hier ist eine mögliche Einführung für Ihr Thema.“ Das klingt sehr nach einer algorithmisch höflichen Antwort auf eine KI-Eingabeaufforderung, falls es jemals eine gab.

Im Interview mit 404Emanuel Maiberg, Zeitschriftenredakteur und Physikprofessor am Boston College Michael J. Naughton, sagte, dass sich die Veröffentlichung an das Papier „wende“, das zum Redaktionsschluss noch in der Datenbank für medizinische Fachzeitschriften ScienceDirect verfügbar sei Oberflächen und Grenzflächen Leben.

Wann Futurismus Als ich eine ähnliche Suche bei Google Scholar durchführte, lieferte die Zeitschriftendatenbank einige Ergebnisse, bei denen es sich in erster Linie um beides zu handeln schien mit dem OpenAI-Chatbot als „Co-Autor“ oder auf andere Weise demonstriert seine Schwächen als Recherche- und Schreibwerkzeug Aber es gibt auch viele andere Materialien, bei denen es fast sicher scheint, dass Akademiker KI träge eingesetzt haben, um Wortschatz zu erfinden.

Die Präsenz dieser Artikel, insbesondere in seriösen Fachzeitschriften, scheint zu signalisieren, dass KI die Wissenschaft noch stärker infiltriert hat, als wir ohnehin schon gedacht hatten – und solange die Fachzeitschriften nicht damit beginnen, ihre eigenen Standards durchzusetzen, wird sie die Gewässer dessen, was eigentlich unsere Kultur sein soll, weiterhin trüben Bastionen des Intellekts.

Mehr zu Chatbots: Faule High-School-Lehrer nutzen ChatGPT zur Benotung

5/5 - (324 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein