chatgpt wird in vielen Bereichen unseres Lebens aktiv implementiert. Neue Forschungsergebnisse deuten jedoch darauf hin, dass es einen Schlüsselbereich gibt, in dem seine Verwendung in naher Zukunft wahrscheinlich keine Relevanz haben wird. Forscher am Brigham and Women’s Hospital, einem Lehrkrankenhaus der Harvard Medical School in Boston, fanden heraus, dass die vom revolutionären Chatbot von OpenAI erstellten Krebsbehandlungspläne voller Fehler waren.
Laut einer in der Fachzeitschrift JAMA Oncology veröffentlichten Studie enthielten ein Drittel der Antworten auf große Sprachmodelle falsche Informationen, als sie gebeten wurden, Behandlungspläne für verschiedene Krebsarten zu erstellen. Die Studie stellte außerdem fest, dass der Chatbot dazu neigte, korrekte und falsche Informationen so zu vermischen, dass es schwierig war, festzustellen, was richtig war. Von insgesamt 104 Anfragen enthielten etwa 98 % der Antworten von ChatGPT mindestens eine empfohlene Behandlung, die den Empfehlungen des National Comprehensive Cancer Network entsprach, heißt es in dem Bericht.
Chatbot-Antworten klingen oft selbstbewusst und logisch, und die Art und Weise, wie dabei falsche und richtige Informationen vermischt werden können, ist potenziell gefährlich. Selbst einem Experten fällt es schwer festzustellen, welche Empfehlung falsch ist.“
Studien-Co-Autor Daniel Bitterman
ChatGPT war seit seiner Einführung im November 2022 ein voller Erfolg und erreichte zwei Monate nach seinem Debüt 100 Millionen aktive Nutzer. Der Chatbot hat einen Anstieg der Investitionen in KI-Unternehmen und eine heftige Debatte über die langfristigen Auswirkungen von KI ausgelöst.
Trotz des Erfolgs von ChatGPT neigen generative KI-Modelle immer noch zu „Halluzinationen“, wenn sie selbstbewusst Informationen präsentieren, die irreführend oder völlig falsch sind. Obwohl die Versuche, künstliche Intelligenz in das Gesundheitswesen zu integrieren, vor allem zur Optimierung administrativer Aufgaben, bereits in vollem Gange sind. Anfang dieses Monats ergab eine große Studie, dass der Einsatz von KI zur Brustkrebsvorsorge sicher ist und die Arbeitsbelastung von Radiologen um fast die Hälfte reduzieren könnte.
Ein Harvard-Informatiker hat kürzlich herausgefunden, dass GPT-4, die neueste Version des Modells, die medizinische Zulassungsprüfung in den USA bestehen kann – und schlug vor, dass es bessere klinische Ergebnisse erzielt als einige Ärzte. Aufgrund von Genauigkeitsproblemen bei generativen Modellen wie ChatGPT ist es jedoch unwahrscheinlich, dass sie in absehbarer Zeit Ärzte ersetzen werden.