Eine Gruppe italienischer Forscher das hat er herausgefunden chatgptder äußerst beliebte Chatbot von OpenAI, ist da in der Lage, falsche Datensätze zu generieren, um unbestätigte wissenschaftliche Hypothesen zu stützen auf Wunsch der Benutzer. Das Ergebnis unterstreicht die Notwendigkeit, die wissenschaftlichen Überprüfungsmethoden zu verbessern, um den unethischen Einsatz von KI-Tools zu verhindern.
Gefälschte wissenschaftliche Nachrichten
Die neuen Funktionen von ChatGPT wurden auf die Probe gestellt Andrea Taloni und Vicenzo Scorcia des Universitätskrankenhauses Mater Domini von Catanzaro, e Giuseppe Giannaccare des Universitätskrankenhausunternehmens Cagliari. Im vergangenen März stellte OpenAI sein fortschrittlichstes Sprachmodell vor, GPT-4, das im Vergleich zu seinem Vorgänger erhebliche Fortschritte beim semantischen Verständnis und bei der Generierung von Textinhalten aufwies. Einige Monate später verbesserte das Unternehmen ChatGPT durch die Integration der Funktion weiter Erweiterte Datenanalyse (Ada), das eine statistische Analyse und Visualisierung von Benutzerdatenbanken ermöglicht. Angesichts einer ähnlichen Entwicklung wird der Einsatz von KI auch für wissenschaftliche Zwecke zu einer interessanten Option, die den Forschungsprozess und die Erstellung von Dokumenten beschleunigen könnte.
Allerdings haben die jüngsten Fähigkeiten von ChatGPT bei italienischen Forschern Zweifel geweckt. Insbesondere glaubte das Team, dass die erweiterte Datenanalysefunktion möglich sein könnte auch im wissenschaftlichen Bereich unethisch verwendet. Wissenschaftler haben daher eine entwickelt Experiment, um die Hypothese zu testen.
Das Experiment des italienischen Teams
Taloni, Scorcia und Giannaccare haben eine Suche simuliert Darin wurden die Ergebnisse von zwei Operationen zur Behandlung eines Augenproblems gezeigt. Anschließend baten sie ChatGPT und Ada, eine zu generieren Datenbank, um das am wenigsten effektive Verfahren zu unterstützen und es als die beste Option darzustellen. Die künstliche Intelligenz generierte Daten von 160 männlichen und 140 weiblichen Probanden. Laut den Autoren des Experiments besteht die Gefahr, dass die Von ChatGPT erstellte Statistiken können als wahr gelten wenn Sie nicht genügend Aufmerksamkeit schenken.
Die Augeninfektion, die Gegenstand der Eingriffe ist, wird aufgerufen Keratokonus und verursacht Konzentrations- und Sehstörungen sowie eine Verdünnung der Hornhaut. In schweren Fällen benötigen Patienten eine Transplantation. Zu diesem Zeitpunkt können Ärzte die Infektion behandeln, indem sie die beschädigten Hornhautschichten entfernen und durch gesundes Gewebe ersetzen (durchdringende Keratoplastik) oder indem sie nur die vordere Hornhautschicht ersetzen, ohne die innere Schicht zu berühren (tiefe vordere lamellare Keratoplastik). Echte Beweise deuten darauf hin, dass die erste Option die effektivste ist Die von der KI erfundenen Daten unterstützten das zweite Verfahren.
„Unser Ziel war es hervorzuheben, Innerhalb weniger Minuten können Sie einen Datensatz erstellen, der nicht durch echte Informationen unterstützt wirdund das geht in die entgegengesetzte Richtung zu den verfügbaren Beweisen„, erklärte Giuseppe Giannaccare.
Trotz der Krise was in der letzten Woche OpenAI überwältigt hat – mit die überraschende Entlassung und anschließende Wiedereinstellung von CEO Sam Altman – Das Unternehmen arbeitet weiterhin an GPT-4. Zu der Möglichkeit, dass sein Ada-System missbräuchlich zur Untermauerung falscher wissenschaftlicher Thesen genutzt wird, hat sich das Startup bisher nicht geäußert.
Dieser Artikel erschien ursprünglich Ihr Wired auf Spanisch.