Amerikanische Wissenschaftler haben ein Tool entwickelt, das zwischen Artikeln echter Wissenschaftler und künstlicher Intelligenz (KI) unterscheidet. Die Studie wurde in der Zeitschrift Cell Reports Physical Science veröffentlicht.Lenta.ru».
Spezialisten der University of Kansas (USA) waren besorgt darüber, dass chatgpt und andere generative Modelle zunehmend zum Verfassen wissenschaftlicher Arbeiten verwendet werden. Während des Experiments entwickelten die Ingenieure der Organisation ein KI-basiertes Tool, das gefälschte wissenschaftliche Materialien erkennt. Die Genauigkeit des Dienstes wurde mit 99 Prozent bewertet.
Die Autorin der wissenschaftlichen Arbeit Heather Desair hat zusammen mit Kollegen 64 wissenschaftliche Artikel ausgewählt: Einige davon wurden von echten Wissenschaftlern geschrieben, der andere Teil wurde mithilfe künstlicher Intelligenz generiert. Die Materialien wurden auf ChatGPT hochgeladen und der Chatbot wurde gebeten, 128 gefälschte Artikel zu schreiben. Insgesamt generierte die KI 1276 Absätze, die dann erneut zum Training genutzt wurden.
Als Ergebnis stellte sich heraus, dass der auf Basis von ChatGPT erstellte Dienst es ermöglicht, echte Artikel mit einer Genauigkeit von 99 Prozent von gefälschten zu unterscheiden. Auf der Ebene der Analyse einzelner Absätze sinkt die Genauigkeit jedoch leicht auf 92 Prozent.
Experten kamen zu dem Schluss, dass es durchaus möglich ist, einen Text, der von einer lebenden Person geschrieben wurde, von einem Text zu unterscheiden, der von einem Chatbot erstellt wurde. Echte Gelehrte neigen dazu, längere Sätze zu schreiben und abwechslungsreichere Wörter zu verwenden. Außerdem verwenden Menschen häufiger Satzzeichen.