OpenAI ist ein auf künstlicher Intelligenz (KI) basierendes Forschungs- und Entwicklungsunternehmen, das sich kürzlich entwickelt hat chatgpt“ rel=“noopener“>ChatGPT, ein großes Sprachmodell (LLM). Obwohl zuvor entwickelte LLMs verschiedene NLP-Aufgaben (Natural Language Processing) ausführen können, verarbeitet ChatGPT unterschiedliche Aufgaben. ChatGPT ist ein KI-Chatbot, der in einer menschenähnlichen Konversation interagieren kann.

Interessanterweise hatte ChatGPT nur fünf Tage nach der Veröffentlichung über eine Million Benutzer. Die Mehrheit der Nutzer nutzte ChatGPT, um komplexe Fragen zu beantworten oder kurze Texte zu generieren. Im Vergleich zu manuell erstelltem Text wäre die Erkennung von Plagiaten in Texten, die mit dem ChatGPT-Tool generiert wurden, nicht einfach.

Ein kürzlich Grenzen in der öffentlichen Gesundheit Tagebuch Die Studie konzentrierte sich auf die Entwicklung von LLMs. Außerdem wurde bewertet, wie sich ChatGPT auf die zukünftige Forschung und die öffentliche Gesundheit auswirken könnte. Ziel dieser Studie war es, eine Debatte über die Funktion von ChatGPT in der medizinischen Forschung anzuregen und dabei das Konzept der „KI-gesteuerten Infodemie“ zu berücksichtigen.

Perspektive: ChatGPT und der Aufstieg großer Sprachmodelle: die neue KI-gesteuerte Infodemie-Bedrohung für die öffentliche Gesundheit. Bildnachweis: Mila Supinskaya Glashchenko / Shutterstock

Entwicklung von LLMs

In den letzten fünf Jahren konnte ein exponentielles Wachstum bei LLMs beobachtet werden, die die Ausführung vielfältiger Aufgaben ermöglichten. Vor 2017 wurden die meisten NLP-Modelle jedoch für eine bestimmte Aufgabe trainiert. Dieser Nachteil wurde durch die Entwicklung der Self-Attention-Network-Architektur, auch bekannt als Transformer, überwunden. Im Jahr 2018 wurde dieses Konzept genutzt, um zwei revolutionäre Modelle zu entwickeln, nämlich Generative Pretrained Transformer (GPT) und Bidirektionale Encoder-Repräsentationen von Transformatoren (BERT).

Siehe auch  "Intelligent wie nie": Erster Autobauer integriert ChatGPT in seinen Fahrzeugen

Um Generalisierungsfähigkeiten in BERT und GPT zu erreichen, wurde eine Kombination aus überwachter Feinabstimmung und unbeaufsichtigtem Vortraining verwendet. Dieser Ansatz ermöglichte die Anwendung vorab trainierter Sprachdarstellungen zur Ausführung nachgelagerter Aufgaben.

GPT-Modelle entwickelten sich schnell weiter und viele Versionen wurden auf den Markt gebracht. Die verbesserten Versionen enthalten umfangreiche Textdaten und Parameter. Beispielsweise ist die dritte Version von GPT (GPT-3) 100-mal größer als GPT-2 und umfasst 175 Milliarden Parameter. Obwohl GPT-3 Texte generieren kann, die ein breites Spektrum an Domänen abdecken, liefert es häufig voreingenommene Texte, die unwahre Fakten enthalten. Dies liegt daran, dass viele LLMs, einschließlich GPT-3, Verzerrungen reproduzieren, da sie darauf ausgelegt sind, das nächste Textelement basierend auf im Internet verfügbaren Daten vorherzusagen. Das Hauptproblem bestand darin, LLMs zu entwerfen, die mit menschlichen Werten und ethischen Grundsätzen im Einklang stehen.

Um das oben genannte Problem anzugehen, entwickelte OpenAI ChatGPT mit 1,3 Milliarden Parametern, die mithilfe von Reinforcement Learning from Human Feedback (RLHF) trainiert wurden. Das ChatGPT 2021 generierte aufgrund seiner Unfähigkeit zur Faktenprüfung falschen Text, was durch die Integration von GPT-4 in ChatGPT behoben wurde. Obwohl das neueste ChatGPT zuverlässige Daten generiert, sollten alle Einschränkungen dieses Tools berücksichtigt werden, insbesondere bei der Anwendung in der medizinischen Forschung.

Bewertung der Bedrohungen durch ChatGPT im öffentlichen Gesundheitswesen unter Berücksichtigung der KI-gesteuerten Infodemie

Mit ChatGPT können Forscher wichtige wissenschaftliche Artikel erstellen. Mit diesem Tool lassen sich beispielsweise relevante Titel für Forschungsartikel vorschlagen, Entwürfe verfassen und komplizierte wissenschaftliche Konzepte in einfachem und grammatikalisch korrektem Englisch ausdrücken. Das große Interesse an ChatGPT in der wissenschaftlichen Gemeinschaft lässt sich an der rasanten Zunahme der Zahl der Forschungsartikel zu diesem Tool ablesen.

Siehe auch  Baidu Wenxin großes Modell Version 3.5, die Bewertungspunktzahl übertrifft ChatGPT | TechNews Technology Neuer Bericht

Viele Autoren haben ChatGPT bereits genutzt, um einen Teil ihrer wissenschaftlichen Artikel zu verfassen. Dies unterstreicht die Tatsache, dass dieses Instrument bereits in Forschungsprozesse einbezogen wurde, noch bevor ethische Bedenken berücksichtigt und einheitliche Regeln für seine Anwendung festgelegt wurden.

LLMs können dazu verleitet werden, Texte zu kontroversen Themen oder falsch informierten Inhalten zu verfassen. LLMs können Texte produzieren, die denen ähneln, die von Menschen verfasst wurden. Diese Fähigkeit kann missbraucht werden, um gefälschte Nachrichtenartikel und erfundene oder irreführende Inhalte zu erstellen, ohne dass der Benutzer erkennt, dass die Inhalte von KI erstellt wurden.

Kürzlich haben einige Autoren die Notwendigkeit von LLM-Detektoren betont, die Fake News erkennen können. Die aktuellen GPT-2-Detektoren sind nicht zuverlässig bei der Erkennung von Text, der von KI geschrieben wurde, wenn er von ChatGPT generiert wurde. Im Einklang mit der raschen Weiterentwicklung von LLMs besteht ein kontinuierlicher Bedarf an der Verbesserung der Detektoren, um böswillige Absichten einzudämmen.

Aufgrund des Mangels an genauen Detektoren müssen einige Vorsichtsmaßnahmen befolgt werden. Zum Beispiel die Internationale Konferenz über maschinelles Lernen (ICML) für 2023 die Verwendung von LLMs in eingereichten Entwürfen verboten. Allerdings stehen keine Tools zur Überprüfung der Einhaltung dieser Regel zur Verfügung.

Viele wissenschaftliche Zeitschriften haben aktualisierte Autorenrichtlinien; Springer Nature-Zeitschriften fügten beispielsweise hinzu, dass LLMs nicht als Autoren aufgeführt werden können und ihre Verwendung in den Abschnitten zu Methoden oder Danksagungen erwähnt werden muss. Diese aktualisierten Richtlinien wurden auch von Elsevier umgesetzt.

ChatGPT kann missbraucht werden, um gefälschte wissenschaftliche Zusammenfassungen, Artikel und Bibliografien zu erstellen. Hier könnte ein digitales Objektidentifizierungssystem (DOI) eingesetzt werden, um gefälschte Referenzen genau zu erkennen. Wissenschaftler wiesen darauf hin, dass jahrelange Forschung erforderlich ist, um einen Befund in der Medizin zu validieren, bevor er klinisch angewendet werden kann. Daher können durch KI-Tools generierte gefälschte Informationen die Sicherheit von Menschen gefährden.

Siehe auch  4 ChatGPT-Eingabeaufforderungen für effektive Führung

Die Pandemie der Coronavirus-Krankheit 2019 (COVID-19) hat tiefgreifende Auswirkungen auf die Gesundheitsforschung. Dies ist in erster Linie auf die schnelle Verbreitung von Informationen von Preprint-Servern über soziale Medien zurückzuführen, die sich auf die Gesundheitsentscheidungen eines Einzelnen auswirkten. COVID-19-Informationen wurden größtenteils über soziale Medien verbreitet, was zu einem Phänomen führte, das als Infodemie bekannt ist. Es wurde beobachtet, dass eine Infodemie die medizinische Entscheidungsfindung bei Präventions- oder Behandlungsstrategien erheblich beeinflussen kann. Die Autoren prognostizieren in Zukunft erhebliche Bedrohungen für die öffentliche Gesundheit aufgrund der Entstehung KI-gesteuerter Infodemien.

Geschrieben von

DR. Priyam Bose

Priyom hat einen Ph.D. in Pflanzenbiologie und Biotechnologie von der University of Madras, Indien. Sie ist eine aktive Forscherin und erfahrene Wissenschaftsautorin. Priyom ist außerdem Co-Autor mehrerer Original-Forschungsartikel, die in renommierten Fachzeitschriften veröffentlicht wurden. Sie ist außerdem eine begeisterte Leserin und Amateurfotografin.

Zitate

Bitte verwenden Sie eines der folgenden Formate, um diesen Artikel in Ihrem Aufsatz, Ihrer Arbeit oder Ihrem Bericht zu zitieren:

  • WAS

    Bose, Prijom. (2023, 17. Mai). ChatGPT äußert Bedenken hinsichtlich einer KI-gesteuerten Infodemie im öffentlichen Gesundheitswesen. Nachrichten-Medizin. Abgerufen am 18. Mai 2023 von https://www.news-medical.net/news/20230517/ChatGPT-raises-concerns-of-AI-driven-infodemic-in-public-health.aspx.

  • MLA

    Bose, Prijom. „ChatGPT wirft Bedenken hinsichtlich einer KI-gesteuerten Infodemie im öffentlichen Gesundheitswesen auf“ . Nachrichten-Medizin. 18. Mai 2023. .

  • Chicago

    Bose, Prijom. „ChatGPT wirft Bedenken hinsichtlich einer KI-gesteuerten Infodemie im öffentlichen Gesundheitswesen auf“ . Nachrichten-Medizin. https://www.news-medical.net/news/20230517/ChatGPT-raises-concerns-of-AI-driven-infodemic-in-public-health.aspx. (abgerufen am 18. Mai 2023).

  • Harvard

    Bose, Prijom. 2023. ChatGPT äußert Bedenken hinsichtlich einer KI-gesteuerten Infodemie im öffentlichen Gesundheitswesen. News-Medical, angezeigt am 18. Mai 2023, https://www.news-medical.net/news/20230517/ChatGPT-raises-concerns-of-AI-driven-infodemic-in-public-health.aspx.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein