Dieser Artikel wurde von Science X überprüft redaktionellen Prozess Und Richtlinien. Herausgeber haben die folgenden Attribute hervorgehoben und gleichzeitig die Glaubwürdigkeit des Inhalts sichergestellt:

faktengeprüft

peer-reviewte Veröffentlichung

vertrauenswürdige Quelle

Korrekturlesen

chatgpt-4.jpg“ srcset=“https://scx1.b-cdn.net/csz/news/800w/2023/chatgpt-4.jpg?f=webp 800w“ layout=“responsive“ width=“1280″ height=“853″ alt=“chatgpt“>

Bildnachweis: Unsplash/CC0 Public Domain

× schließen

Bildnachweis: Unsplash/CC0 Public Domain

Ein Trio von Kinderärzten am Cohen Children's Medical Center in New York hat festgestellt, dass die pädiatrischen Diagnosefähigkeiten von ChatGPT erheblich mangelhaft sind, nachdem sie das LLM gebeten hatten, 100 zufällige Fallstudien zu diagnostizieren. In ihrer Studie gemeldet im Tagebuch JAMA PädiatrieJoseph Barile, Alex Margolis und Grace Cason testeten die Diagnosefähigkeiten von ChatGPT.

Die pädiatrische Diagnostik stellt laut den Forschern eine besondere Herausforderung dar, da neben der Berücksichtigung aller Symptome eines bestimmten Patienten auch das Alter berücksichtigt werden muss. Bei dieser neuen Initiative stellten sie fest, dass LLMs von einigen Medizinern als vielversprechendes neues Diagnoseinstrument beworben wurden. Um ihre Wirksamkeit zu bestimmen, stellten die Forscher 100 zufällige pädiatrische Fallstudien zusammen und baten ChatGPT, diese zu diagnostizieren.

Der Einfachheit halber verwendeten die Forscher bei der Abfrage des LLM für alle Fallstudien einen einzigen Ansatz. Sie fügten zunächst den Text aus der Fallstudie ein und folgten dann mit der Aufforderung „Listen Sie eine Differentialdiagnose und eine endgültige Diagnose auf.“

Eine Differentialdiagnose ist eine Methode, mit der anhand der Anamnese und körperlichen Untersuchungen eines Patienten eine vorläufige Diagnose (oder mehrere davon) vorgeschlagen wird. Die endgültige Diagnose ist, wie der Name schon sagt, die vermutete Ursache der Symptome. Die vom LLM gegebenen Antworten wurden von zwei Kollegen bewertet, die ansonsten nicht an der Studie beteiligt waren. Es gab drei mögliche Bewertungen: „richtig“, „falsch“ und „erfasste die Diagnose nicht vollständig“.

Siehe auch  Kann ChatGPT die Ernährungserziehung revolutionieren? Studie untersucht Potenziale und Herausforderungen

Das Forschungsteam stellte fest, dass ChatGPT nur 17 Mal korrekte Ergebnisse lieferte – davon standen 11 Mal im klinischen Zusammenhang mit der richtigen Diagnose, waren aber dennoch falsch.

Die Forscher stellen das Offensichtliche fest: ChatGPT ist eindeutig noch nicht bereit, als Diagnosetool eingesetzt zu werden, sie weisen jedoch auch darauf hin, dass selektiveres Training die Ergebnisse verbessern könnte. Sie weisen außerdem darauf hin, dass sich LLMs wie ChatGPT inzwischen als nützliches Verwaltungstool, beim Verfassen von Forschungsartikeln oder beim Erstellen von Anleitungsblättern für Patienten in Nachsorgeanwendungen als nützlich erweisen könnten.

Mehr Informationen: Joseph Barile et al., Diagnostische Genauigkeit eines großen Sprachmodells in pädiatrischen Fallstudien, JAMA Pädiatrie (2024). DOI: 10.1001/jamapediatrics.2023.5750

Zeitschrifteninformationen: JAMA Pädiatrie

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.