[ad_1]
Eine schnelle Diagnose von Patienten in der Notaufnahme ist unerlässlich, um die klinischen Ergebnisse zu verbessern und die Aufenthaltsdauer zu verkürzen. Niederländische Forscher testeten chatgpt in einer Notaufnahme in den Niederlanden. Sie fanden heraus, dass KI Diagnosen mindestens genauso gut durchführte wie Ärzte und diese in einigen Fällen sogar übertraf.
Die Autoren der am Mittwoch veröffentlichten Studie betonten jedoch, dass die Tage der Notärzte noch nicht gezählt seien, da der Chatbot zwar in der Lage sei, die Diagnose zu beschleunigen, aber nicht das Urteilsvermögen und die Erfahrung eines Menschen ersetzen könne.
Dreißig Fälle, die im Jahr 2022 in einer Notaufnahme in den Niederlanden behandelt wurden, wurden überprüft, indem ChatGPT auf der Grundlage der Patientengeschichte, Labortests und Beobachtungen des Arztes gefüttert wurde und der Chatbot gebeten wurde, fünf mögliche Diagnosen vorzuschlagen.
In 87 % der Fälle wurde die richtige Diagnose in der Ärzteliste gefunden, verglichen mit 97 % bei Version 3.5 von ChatGPT.
Der Chatbot „war in der Lage, medizinische Diagnosen durchzuführen, ähnlich wie es ein menschlicher Arzt getan hätte“, fasste Hidde ten Berg von der Notaufnahme des Jeroen-Bosch-Krankenhauses im Süden der Niederlande zusammen.
Der Co-Autor der Studie, Steef Kurstjens, betonte, dass sie nicht zu dem Schluss komme, dass Computer eines Tages Notaufnahmen betreiben könnten, sondern dass KI eine entscheidende Rolle dabei spielen könnte, Ärzten unter Druck zu helfen.
Der Chatbot „kann helfen, eine Differenzialdiagnose zu stellen und vielleicht Ideen vorschlagen, an die der Arzt nicht gedacht hat“, sagte er gegenüber AFP.
Solche Tools seien nicht als medizinische Geräte konzipiert, wies jedoch darauf hin, dass er auch Bedenken hinsichtlich der Vertraulichkeit sensibler medizinischer Daten in einem Chatbot äußerte.
Und wie auch in anderen Bereichen ist ChatGPT auf einige Einschränkungen gestoßen.
Seine Argumentation sei „manchmal medizinisch unplausibel oder inkonsistent, was zu Fehlinformationen oder falschen Diagnosen mit erheblichen Auswirkungen führen kann“, heißt es in der Studie.
Die Wissenschaftler räumen auch einige Mängel ihrer Forschung ein, etwa die geringe Stichprobengröße.
Darüber hinaus wurden nur relativ einfache Fälle untersucht, wobei die Patienten nur eine Hauptbeschwerde aufwiesen. Die Wirksamkeit von Chatbots in komplexen Fällen ist unklar.
Manchmal lieferte ChatGPT nicht bei allen fünf Möglichkeiten die richtige Diagnose, sagte Kurstjens, insbesondere im Fall eines Bauchaortenaneurysmas, einer potenziell lebensbedrohlichen Komplikation mit Schwellung der Aorta.
Aber zum Trost für ChatGPT: Auch in diesem Fall hat der Arzt Unrecht gehabt.
Der Bericht weist außerdem auf medizinische „Fehler“ des Chatbots hin, beispielsweise bei der Diagnose einer Anämie bei einem Patienten mit normalen Hämoglobinwerten.
Die Ergebnisse der Studie, veröffentlicht in der Fachzeitschrift Annalen der Notfallmedizinwird auf dem Europäischen Kongress für Notfallmedizin (EUSEM) 2023 in Barcelona vorgestellt.
Lesen Sie auch:
Der Zugriff auf alle Funktionen ist medizinischem Fachpersonal vorbehalten.
Wenn Sie ein medizinisches Fachpersonal sind, müssen Sie sich auf unserer Website anmelden oder kostenlos registrieren, um auf alle unsere Inhalte zugreifen zu können. Wenn Sie Journalist sind oder uns informieren möchten, schreiben Sie uns an [email protected].
[ad_2]