In der Notaufnahme führte der Chatbot mit künstlicher Intelligenz chatgpt Diagnosen mindestens genauso gut durch wie Ärzte und übertraf diese in einigen Fällen, fanden niederländische Forscher heraus und sagten, KI könne „den medizinischen Bereich revolutionieren“. Die Autoren dieser am Mittwoch veröffentlichten Studie betonten jedoch, dass die Tage der Notärzte noch nicht gezählt seien, da der Chatbot möglicherweise in der Lage sei, die Diagnose zu beschleunigen, aber nicht das Urteilsvermögen und die Erfahrung eines Menschen ersetzen könne.

Dreißig Fälle, die im Jahr 2022 in einer Notaufnahme in den Niederlanden behandelt wurden, wurden überprüft, indem ChatGPT auf der Grundlage von Patientengeschichten, Labortests und ärztlichen Beobachtungen gefüttert wurde und der Chatbot gebeten wurde, fünf mögliche Diagnosen vorzuschlagen. In 87 % der Fälle wurde die richtige Diagnose in der Ärzteliste gefunden, verglichen mit 97 % bei Version 3.5 von ChatGPT. Der Chatbot „war in der Lage, medizinische Diagnosen durchzuführen, ähnlich wie es ein menschlicher Arzt getan hätte“, fasste Hidde ten Berg von der Notaufnahme des Jeroen-Bosch-Krankenhauses im Süden der Niederlande zusammen.

KI hat Grenzen

Der Co-Autor der Studie, Steef Kurstjens, betonte, dass sie nicht zu dem Schluss komme, dass Computer eines Tages Notaufnahmen betreiben könnten, sondern dass KI eine entscheidende Rolle dabei spielen könnte, Ärzten unter Druck zu helfen. Der Chatbot „kann helfen, eine Diagnose zu stellen und vielleicht Ideen anbieten, an die der Arzt nicht gedacht hatte“, sagte er. Solche Tools seien nicht als medizinische Geräte konzipiert, wies jedoch darauf hin, dass er auch Bedenken hinsichtlich der Vertraulichkeit sensibler medizinischer Daten in einem Chatbot äußerte.

Siehe auch  Der CEO von Google DeepMind sagte, dass ihr nächster Algorithmus ChatGPT übertreffen wird!

Und wie auch in anderen Bereichen ist ChatGPT auf einige Einschränkungen gestoßen. Seine Argumentation sei „zuweilen medizinisch unplausibel oder inkonsistent, was zu Fehlinformationen oder falschen Diagnosen mit erheblichen Konsequenzen führen kann“, heißt es in der Studie. Die Wissenschaftler räumen auch einige Mängel ihrer Forschung ein, etwa die geringe Stichprobengröße. Darüber hinaus wurden nur relativ einfache Fälle untersucht, wobei die Patienten nur eine Hauptbeschwerde aufwiesen. Die Wirksamkeit von Chatbots in komplexen Fällen ist unklar.

Manchmal lieferte ChatGPT nicht bei allen fünf Möglichkeiten die richtige Diagnose, erklärt Steef Kurstjens, insbesondere im Fall eines Bauchaortenaneurysmas, einer potenziell tödlichen Komplikation, bei der die Aorta anschwillt. Aber zum Trost für ChatGPT: Auch in diesem Fall hat der Arzt Unrecht gehabt. Der Bericht weist außerdem auf medizinische „Fehler“ des Chatbots hin, beispielsweise bei der Diagnose einer Anämie (niedriger Hämoglobinspiegel im Blut) bei einem Patienten mit normalem Hämoglobinspiegel.

Die Ergebnisse der Studie, veröffentlicht in der Fachzeitschrift Annalen der Notfallmedizinwird auf dem Europäischen Kongress für Notfallmedizin (EUSEM) 2023 in Barcelona vorgestellt.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein