Experten für strafrechtliche Ermittlungen sagen, dass ein Dieb oder Krimineller, egal wie präzise sein Verbrechen ist, Beweise hinterlassen wird, die ausreichen, um sein Verbrechen aufzudecken und ihn dann zu verhaften.
Anders als in der obigen Metapher entdeckte Guillaume Cabanac, ein Informatiker und wissenschaftlicher Ermittler an der Universität Toulouse in Frankreich, das Verbrechen des wissenschaftlichen Diebstahls mithilfe der künstlichen Intelligenzanwendung „chatgpt“. Zuvor hatten die Forscher versehentlich Beweise für ihre Verbrechen hinterlassen und veröffentlicht die Verstöße gegen PubPeer, eine Website, auf der Wissenschaftler veröffentlichte Forschungsergebnisse diskutieren.
Viele Forscher, denen die „wissenschaftliche Integrität“ am Herzen liegt, beschreiben den Missbrauch von „ChatGPT“ als eine Form des wissenschaftlichen Diebstahls, da die wissenschaftliche Definition dieses unkontrollierten akademischen Verhaltens darin besteht, „den Text oder die Daten einer anderen Person ohne Namensnennung oder Unterlassung zu plagiieren“. Quellen, aus denen der Forscher die Daten bezogen hat“, was in diesem Fall durchaus zutrifft.
ChatGPT-Impressum
„In einer Reihe von Studien konnte ich ChatGPT-Abdrücke finden, was alarmierend ist und die Glaubwürdigkeit wissenschaftlicher Forschung untergräbt“, sagte Cabanac in einer E-Mail-Erklärung an Al Jazeera und verwendete dabei die Sprache einer strafrechtlichen Untersuchung.
Bei den Abdrücken, auf die sich Cabanac bezieht, handelt es sich um bekannte Wörter und Phrasen im Zusammenhang mit der ChatGPT-Anwendung, wie zum Beispiel die Phrase „Antwort neu generieren“, bei der es sich um eine Schaltfläche handelt, die, wenn sie angeklickt wird, dazu führt, dass „ChatGPT“ eine neue Antwort generiert, allerdings eine solche unterscheidet sich von der vorherigen Antwort. Im Gegensatz dazu ist diese Schaltfläche nützlich, wenn eine zuvor generierte Antwort den Benutzer unzufrieden macht und in späteren Versionen der App mit dem Wort „Aktualisieren“ umbenannt wurde.
Ein aktueller Fall, in dem das ChatGPT-Impressum eine Rolle bei der Erkennung von App-Missbrauch spielte, bezieht sich auf eine am 9. August in der Zeitschrift History of Physics veröffentlichte Studie, die von British Physical Society Press, dem Herausgeber der Zeitschrift, rezensiert wurde. (IOP Press), Eine Studie, die darauf abzielt, neue Lösungen für mathematische Gleichungen aufzudecken, reiht sich in die Liste der Studien ein, in denen es um den Missbrauch von Zitaten durch ChatGPT geht, nachdem sie Kontroversen ausgelöst hatte.
12 Studien
Die Studie „History of Physics“ ist nicht das einzige Beispiel dafür, dass eine prominente wissenschaftliche Zeitschrift daran beteiligt ist, wissenschaftliche Forschung von Autoren zu akzeptieren, die solch unehrliches Verhalten an den Tag legen; seit April hat Kabanak mehr als ein Dutzend Studien aufgedeckt, von denen einige den gleichen Aufdruck enthielten, den Der Satz „Eine Antwort regenerieren“ wird verwendet, während andere Abdrücke in anderen Studien aufgetaucht sind. Der berühmte Satz der App „Als KI-Sprachmodell kann ich nicht …“ Wenn Sie eine Frage in die App eingeben, gibt die Anwendung das oben Gesagte ein um eine analytische Sichtweise oder Vorhersage zu etwas bitten.
Cabanac entdeckte das Impressum in einer Zeitschrift des berühmten Elsevier-Verlags, der Zeitschrift Resource Policy, die am 3. August einen Artikel mit dem Titel „E-Commerce’s Impact on Fossil Fuels in Developing Countries“ Efficiency Impact“ veröffentlichte. Kabanak stellte fest, dass einige davon Die in der Forschungsarbeit enthaltenen Gleichungen waren unlogisch und die Ergebnisse über der Tabelle enthielten den Satz „Bitte beachten Sie, dass ich als KI-Sprachmodell keine spezifischen Tabellen erstellen oder Tests durchführen kann.“
Die Krise manifestiert sich in zwei Problemen
Laut Cabanak stellt die Existenz dieser Abdrücke zwei Probleme dar. Das erste besteht darin, dass „es unerwartet, enttäuschend und schockierend ist, diese Aussagen in einem Artikel zu finden, der in einer hochwirksamen, von Experten begutachteten Fachzeitschrift veröffentlicht wurde“, da dies Fragen aufwirft die Qualität des in diesen Zeitschriften durchgeführten Forschungsbegutachtungsprozesses.“
Die zweite Frage lautet: „Das Kopieren und Einfügen der Ausgabe des ChatGPT-Programms in den für (verwandte Werke) vorgesehenen Abschnitt, ohne sie überhaupt zu lesen, ist ein Zeichen von Versehen, das mich neugierig auf den Rest des Artikels macht, denn wenn der Autor war beim Schreiben der Arbeit schlampig, wie kann also jemand den Forschungsmethoden und -ergebnissen vertrauen?“
Spitze des Eisbergs
Wenn Cabanacs Methode nur die einfache Nutzung der App erfasst, bei der Forscher vergessen, das App-Impressum zu entfernen, dann bedeutet das, dass es eine Fülle von Forschungsarbeiten gibt, die noch nicht veröffentlicht wurden, von Experten begutachtet wurden und in der App veröffentlicht wurden. Erstellt mit unbekannter Hilfe des Programms.
In diesem Zusammenhang sagte Cabanak: „Es könnte noch viele weitere Arbeiten dieser Art geben, daher ist es notwendig, das Bewusstsein für diese Themen in der Forschungsgemeinschaft zu schärfen.“
Kim Eagleton, Leiterin für Peer Review und Forschungsintegrität bei UK Physical Society Press, stimmte Kabanak darin zu, wie wichtig es ist, das Bewusstsein zu schärfen, und sagte in einer per E-Mail an Al Jazeera gesendeten Erklärung: „Sie haben einen Fehler ausgenutzt, den sie bei der Veröffentlichung ihrer Studie gemacht haben.“ Zeitschrift History of Physics unter Verwendung des Begriffs „Regenerationsreaktion“.
Kim Eagleton erklärte: „Wir haben mehr über das ChatGPT-Tool erfahren und seit dem Vorfall mit dem Artikel „Geschichte der Physik“ zusätzliche Kontrollen eingeführt, einschließlich der Tatsache, dass wir, sobald der Artikel eingereicht wurde, jetzt alle Artikel auf App-Suche überprüfen.“ Imprints werden wir weiterhin verstehen, wie App-Tools im wissenschaftlichen Publizieren eingesetzt werden, im Guten wie im Schlechten, und unsere Richtlinien und Verfahren im Laufe der Zeit anpassen.“
Kim Eagleton fügte hinzu: „Wir wissen, dass wir nicht der einzige Verleger sind, der Arbeiten veröffentlicht hat, die den Begriff ‚regenerative Reaktion‘ enthalten, aber wir sind stolz auf unser schnelles Handeln und die Entscheidung, das Papier zurückzuziehen.“
Verletzung der Ethik
In Bezug auf die zulässigen Nutzungsbeschränkungen von ChatGPT stellte Kim Eagleton fest, dass ein großes Problem der Forscher darin bestehe, dass sie nicht erklären, dass sie die Anwendung in ihrer Forschung verwenden, und dass das Redaktionsteam und die Gutachter dies nicht erkennen.
Kim Eagleton sagte: „Als wir Forscher nach der Kontroverse um ihre Forschung fragten, bestätigten sie, dass sie die App zum Umschreiben ihrer Arbeiten nutzten, und sagten, dass dies keinen Einfluss auf die Genauigkeit ihrer Ergebnisse oder Gültigkeit habe, und obwohl wir die Einschränkungen von nicht überprüfen können.“ Ihre Nutzung der App und ihre Handlungen verstoßen gegen unsere Ethikrichtlinie, die besagt, dass jede Verwendung von Vorlagen wie ChatGPT vollständig offengelegt werden muss, und wir lehnen dies auch in der Interpretation ab. Dies ist oft ein Zeichen dafür, dass die Autoren versuchen, dies zu verbergen Tatsache ist, dass sie die Arbeit einer anderen Person wiederverwenden. Deshalb haben wir beschlossen, die Studie zurückzuziehen und die Forscher über unsere Entscheidung zu informieren.“
erfahrungsbasiertes Lernen
Andererseits ist Najwa al-Badri, Gründungsdirektorin des Programms für Biomedizinische Wissenschaften an der Xavier City University of Science and Technology in Ägypten und Direktorin des Exzellenzzentrums für Stammzellforschung und Biomedizin der Stadt, der Ansicht, dass „wir Verleger nicht bestrafen sollten.“ Gutachter, die diese Fehler machen. Die Beamten waren streng“ und betonten, dass „wir es mit einer neuen Anwendung zu tun haben, die eigenständig entwickelt wird, und wir müssen noch verstehen, wie sie missbraucht werden kann und wie sie ein nützliches Werkzeug für Forscher sein kann.“ .“
Um die Anwendung besser zu verstehen, bat Badri die Studierenden, einen Forschungsbericht zu verfassen, und teilte sie dann in zwei Gruppen ein. Eine Gruppe nutzte ChatGPT, um den Bericht zu verfassen, und die andere Gruppe wurde gebeten, eine Arbeit mit herkömmlichen Methoden zu verfassen.
„Was mich überraschte, war, dass die Recherche der Gruppe, die die ChatGPT-App zum Schreiben von Artikeln nutzte, ausführlicher war und dass dies auf der Kompetenz beim Stellen von Fragen in der App basierte, je spezifischer die Fragen waren“, sagte Badri in einem Aussage während eines Telefoninterviews mit Al Jazeera. Je expliziter sie ist, desto besser wird die Antwort sein, und ich bin zu dem Schluss gekommen, dass die Integrität der wissenschaftlichen Forschung gefährdet wird, wenn die App für die Ausführung von Schreibaufgaben von Forschern missbraucht wird , aber aufgrund seiner nützlichen Einsatzmöglichkeiten ist es ein fortschrittlicheres Tool zur Informationsbeschaffung als google, das es Forschern ermöglicht, Informationen in ihrem eigenen Stil zu analysieren und zu formulieren.“
George Tian, ein Rechtswissenschaftler an der University of Technology Sydney, stimmte Najwa Badri zu und argumentierte, dass der Missbrauch der ChatGPT-Anwendung Gefahren berge, da sie der Frage der „Glaubwürdigkeit wissenschaftlicher Forschung“ zwei weitere Probleme hinzufüge, nämlich „Voreingenommenheit und Fehlinformationen“ und „verminderte menschliche Fachkenntnis“.
„Einige Anwälte, die die App nutzten, wiesen auf Probleme hin, die in den dem Gericht vorgelegten Rechtsdokumenten nicht auftauchten, was bedeutet, dass der Antrag möglicherweise voreingenommene oder ungenaue Informationen enthält“, sagte Tian in einer per E-Mail an Al Jazeera gesendeten Erklärung. Dadurch wurde die Integrität der Forschung untergraben Gleichzeitig untergräbt die übermäßige Abhängigkeit von ChatGPT das menschliche Forschungswissen und das kritische Denken.“
faire Nutzung
George Tian glaubt, dass es nichts Falsches daran ist, ChatGPT vernünftig zu nutzen, aber nur, wenn die folgenden Bedingungen erfüllt sind:
- Offenlegungserklärung: Forscher müssen die von ihnen verwendeten KI-Tools klar offenlegen.
- Ethische Genehmigung: Dies bedeutet, die Genehmigung für den Einsatz eines KI-Tools in der Forschung am Menschen zu erhalten, beispielsweise für die Verwendung der App zur Erleichterung der Diagnose von Patienten mit psychischen Erkrankungen.
- Zitat und Namensnennung: Damit ist gemeint, das KI-Tool korrekt zu zitieren.
- Peer-Review: Das heißt, dass Forschungsgutachtern Tools zur Verfügung gestellt werden, die es ihnen ermöglichen, den Einsatz von KI-Tools während des Review-Prozesses zu identifizieren und zu bewerten.
- Validierung: Dies bedeutet, dass unabhängige Recherchen zur Überprüfung der von der KI generierten Ergebnisse eingesetzt werden, z. B. die Überprüfung, ob zitierte Artikel und Fälle tatsächlich existieren.
Herausforderungen und Möglichkeiten
Andererseits identifizierte Michael Barras, ein Forscher an der University of Toronto School of Medicine in Kanada, der ein Team leitet, das die Anwendung des Programms bei der Diagnose von Augenkrankheiten untersucht, legitime Verwendungsmöglichkeiten der ChatGPT-Anwendung, teilte Barras Al Jazeera per E-Mail mit. „Künstliche Intelligenz kann bei richtiger Anwendung eine Reihe von Vorteilen mit sich bringen, darunter die Fähigkeit, die Datenanalyse zu beschleunigen und Muster und Korrelationen in großen Datensätzen zu erkennen, die für menschliche Forscher möglicherweise nicht möglich sind“, heißt es in der Erklärung. Die Fähigkeit, Neues zu generieren Hypothesen oder Forschungswege können die Bemühungen menschlicher Forscher verstärken und Innovationen und Erkenntnisse in bisher unvorstellbarer Geschwindigkeit vorantreiben.“
Aber Baras weist darauf hin, dass mit diesen Chancen auch Herausforderungen einhergehen: Übermäßiges Vertrauen oder Missbrauch können ursprüngliche Ideen untergraben und möglicherweise inhärente Vorurteile hervorrufen, die die Integrität der wissenschaftlichen Forschung gefährden.