[ad_1]
Niederländische Forscher glauben, dass der Chatbot von OpenAI „den medizinischen Bereich revolutionieren könnte“.
Weit davon entfernt, Onkologen zu ersetzen, wäre chatgpt besser für Notfälle geeignet. Das geht aus einer am vergangenen Mittwoch in der Fachzeitschrift veröffentlichten Studie hervor Annalen der Notfallmedizin Laut AFP führte der berühmte Gesprächsroboter Diagnosen genauso effizient durch wie die von Ärzten und manchmal sogar besser in der Notaufnahme eines Krankenhauses in den Niederlanden.
Im Rahmen dieser künstliche Intelligenz (IA) musste 30 im letzten Jahr behandelte Fälle analysieren und fünf mögliche Diagnosen vorschlagen. Zu diesem Zweck gewährten ihm niederländische Forscher Zugang zu Patientengeschichten, Labortests und Beobachtungsstellen von Ärzten. Ergebnis: Während in der Behandlerliste in 87 % der Fälle die richtige Diagnose gefunden wurde, stieg dieser Wert bei Version 3.5 von ChatGPT auf 97 %. Der Gesprächsroboter „war in der Lage, medizinische Diagnosen zu stellen, ähnlich wie es ein menschlicher Arzt getan hätte“sagte Hidde ten Berg von der Notaufnahme des Jeroen Bosch Krankenhauses im Süden der Niederlande.
Ersetzen Sie nicht, sondern helfen Sie den Ärzten
Trotz dieser vielversprechenden Ergebnisse stellten die Forscher klar, dass ChatGPT menschliches Urteilsvermögen und Erfahrung nicht ersetzen kann. Dennoch ist es potenziell geeignet, die Diagnose zu beschleunigen. Steef Kurstjens, Co-Autor der Studie, betonte, dass sie nicht zu dem Schluss komme, dass Computer eines Tages Notaufnahmen betreiben werden, sondern vielmehr, dass KI eine entscheidende Rolle dabei spielen kann, Ärzten unter Druck zu helfen. Sie „Kann helfen, eine Diagnose zu stellen und kann vielleicht Ideen vorschlagen, an die der Arzt nicht gedacht hat“erklärte der Forscher gegenüber AFP.
Steef Kurstjens erinnerte jedoch daran, dass Tools wie ChatGPT nicht als medizinische Geräte konzipiert seien, und äußerte auch Bedenken hinsichtlich der Vertraulichkeit sensibler medizinischer Daten in einem Gesprächsroboter.
Auch der Chatbot zeigte in dieser Studie seine Grenzen auf, insbesondere beim Argumentieren „manchmal medizinisch unplausibel oder inkonsistent, was zu falschen Informationen oder falschen Diagnosen führen kann“. Er hat sich auch verpflichtet «Ausrutscher» medizinisch, indem beispielsweise eine Anämie bei einem Patienten diagnostiziert wird, dessen Hämoglobinspiegel normal war. Die Forscher räumten ein, dass die Studie auch einige Mängel aufwies, etwa den geringen Umfang der Studie oder die Einfachheit der untersuchten Fälle. Mit anderen Worten: Es ist nicht sicher, ob ChatGPT bei komplexen Fällen so gut ist.
[ad_2]