Dieser Artikel wurde von Science X überprüft redaktionellen Prozess Und Richtlinien. Herausgeber haben die folgenden Attribute hervorgehoben und gleichzeitig die Glaubwürdigkeit des Inhalts sichergestellt:

faktengeprüft

peer-reviewte Veröffentlichung

vertrauenswürdige Quelle

Korrekturlesen

chatgpt-diagnose-y.jpg“ srcset=“https://scx1.b-cdn.net/csz/news/800w/2023/can-chatgpt-diagnose-y.jpg?f=webp 800w“ layout=“responsive“ width=“1280″ height=“639″ alt=“Can ChatGPT diagnose your condition? Not yet“>
Ein Beispiel für eine ChatGPT-Antwort in dieser Studie; Obwohl dem ChatGPT genau die gleichen Fragen zu orthopädischen Symptomen gestellt wurden, bot der ChatGPT an verschiedenen Tagen unterschiedliche Diagnosen an. Manchmal stellte derselbe Autor dieselbe Frage, aber die Diagnose war unterschiedlich. Bildnachweis: Abteilung für medizinische Designinnovationen, TMDU

× schließen

Ein Beispiel für eine ChatGPT-Antwort in dieser Studie; Obwohl dem ChatGPT genau die gleichen Fragen zu orthopädischen Symptomen gestellt wurden, bot der ChatGPT an verschiedenen Tagen unterschiedliche Diagnosen an. Manchmal stellte derselbe Autor dieselbe Frage, aber die Diagnose war unterschiedlich. Bildnachweis: Abteilung für medizinische Designinnovationen, TMDU

ChatGPT, ein hochentwickelter Chatbot, der auf der Technologie der künstlichen Intelligenz (KI) basiert, wird zunehmend im Gesundheitswesen eingesetzt, unter anderem bei der Unterstützung von Patienten bei der Selbstdiagnose, bevor sie medizinische Hilfe suchen.

Obwohl sie auf den ersten Blick sehr nützlich erscheint, kann KI dem Patienten mehr schaden als nützen, wenn sie in ihrer Diagnose und ihren Empfehlungen nicht korrekt ist. Ein Forschungsteam aus Japan und den USA hat kürzlich herausgefunden, dass die Präzision der Diagnosen von ChatGPT und der Grad, in dem es medizinische Beratung empfiehlt, weiterentwickelt werden müssen.

In einer im September veröffentlichten Studie bewertete das multiinstitutionelle Forschungsteam unter der Leitung der Tokyo Medical and Dental University (TMDU) die Genauigkeit (Prozentsatz der richtigen Antworten) und Präzision der Reaktion von ChatGPT auf fünf häufige orthopädische Erkrankungen (einschließlich Karpaltunnelsyndrom und zervikale Myelopathie). und Hüftarthrose), da orthopädische Beschwerden in der klinischen Praxis weit verbreitet sind und bis zu 26 % der Gründe für die Inanspruchnahme medizinischer Behandlung ausmachen.

Während eines fünftägigen Kurses übermittelte jeder der Studienforscher dieselben Fragen an ChatGPT. Die Reproduzierbarkeit zwischen Tagen und Forschern wurde ebenfalls berechnet und die Stärke der Empfehlung an den Patienten, einen Arzt aufzusuchen, wurde bewertet.

Siehe auch  Professoren können bestimmen, wie Studenten ChatGPT für ihre Unterrichtsaufgaben nutzen

„Wir haben festgestellt, dass die Genauigkeit und Reproduzierbarkeit der ChatGPT-Diagnose über die fünf Erkrankungen hinweg nicht konsistent sind. Die ChatGPT-Diagnose war beim Karpaltunnelsyndrom zu 100 % korrekt, bei der zervikalen Myelopathie jedoch nur zu 4 %, sagt Hauptautor Tomoyuki Kuroiwa. Darüber hinaus schwankte die Reproduzierbarkeit zwischen Tagen und Forschern zwischen den fünf Bedingungen von „schlecht“ bis „fast perfekt“, obwohl die Forscher jedes Mal die gleichen Fragen stellten.

ChatGPT war auch bei der Empfehlung einer ärztlichen Beratung uneinheitlich. Obwohl fast 80 % der ChatGPT-Antworten eine ärztliche Beratung empfahlen, enthielten nur 12,8 % eine starke Empfehlung gemäß den Studienstandards. „Ohne direkte Sprache ist es möglich, dass der Patient nach der Selbstdiagnose verwirrt ist oder, schlimmer noch, durch eine Fehldiagnose Schaden erleidet“, sagt Kuroiwa.

Dies ist die erste Studie, die die Reproduzierbarkeit und den Grad der ärztlichen Beratungsempfehlung der Fähigkeit von ChatGPT zur Selbstdiagnose bewertet. „In seiner aktuellen Form ist ChatGPT sowohl hinsichtlich der Genauigkeit als auch der Präzision inkonsistent, um Patienten bei der Diagnose ihrer Krankheit zu helfen“, erklärt der leitende Autor Koji Fujita. „Angesichts des Fehlerrisikos und des potenziellen Schadens durch Fehldiagnosen ist es wichtig, dass jedes Diagnosetool eine klare Sprache enthält, die Patienten darauf hinweist, zur Bestätigung einer Krankheit ärztliche Expertenmeinungen einzuholen.“

Die Forscher weisen auch auf einige Einschränkungen der Studie hin, einschließlich der Verwendung von vom Forschungsteam simulierten Fragen und nicht von vom Patienten abgeleiteten Fragen; Konzentration auf nur fünf orthopädische Erkrankungen; und nur ChatGPT verwenden. Während es noch zu früh ist, KI-Intelligenz für die Selbstdiagnose zu nutzen, könnte das Training von ChatGPT auf relevante Krankheiten dies ändern. Zukünftige Studien können dazu beitragen, die Rolle der KI als Diagnoseinstrument zu beleuchten.

Siehe auch  ChatGPT gibt Cardano-Preisprognose für 2024 plus MK-Token-Analyse

Die Ergebnisse sind veröffentlicht im Zeitschrift für medizinische Internetforschung.

Mehr Informationen: Tomoyuki Kuroiwa et al., Das Potenzial von ChatGPT als Selbstdiagnoseinstrument bei häufigen orthopädischen Erkrankungen: Explorative Studie, Zeitschrift für medizinische Internetforschung (2023). DOI: 10.2196/47621

Zeitschrifteninformationen: Zeitschrift für medizinische Internetforschung

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein