5. Juli 2023 – Eine neue Studie von Forschern aus Mass General Brigham hat herausgefunden, dass Sprachmodelle mit künstlicher Intelligenz (KI) mögen chatgpt„>ChatGPT kann geeignete Bildgebungsdienste für zwei wichtige klinische Präsentationen genau identifizieren: Brustkrebs-Screening und Brustschmerzen. Ihre Ergebnisse deuten darauf hin, dass große Sprachmodelle das Potenzial haben, die Entscheidungsfindung von Hausärzten und überweisenden Anbietern bei der Beurteilung von Patientinnen und der Anordnung von Bildgebungstests für Brustschmerzen und Brustkrebsvorsorgeuntersuchungen zu unterstützen. Ihre Ergebnisse werden im veröffentlicht Zeitschrift des American College of Radiology.

„In diesem Szenario waren die Fähigkeiten von ChatGPT beeindruckend“, sagte der korrespondierende Autor Marc D. SucciMD, stellvertretender Vorsitzender für Innovation und Kommerzialisierung bei Mass General Brigham Radiology und geschäftsführender Direktor des MESH-Inkubator. „Ich sehe es als eine Art Brücke zwischen dem überweisenden medizinischen Fachpersonal und dem erfahrenen Radiologen – als ausgebildeter Berater, der ohne Verzögerung den richtigen Bildgebungstest am Behandlungsort empfiehlt. Dies könnte den Verwaltungsaufwand sowohl für überweisende als auch für konsultierende Ärzte reduzieren.“ beim Treffen dieser evidenzbasierten Entscheidungen, optimieren Sie den Arbeitsablauf, reduzieren Sie Burnout und reduzieren Sie die Verwirrung und Wartezeiten der Patienten.“

ChatGPT ist ein großes Sprachmodell (LLM), das auf Daten aus dem Internet basiert, um Fragen auf menschenähnliche Weise zu beantworten. Seit der Einführung von ChatGPT im November 2022 beschäftigen sich Forscher weltweit damit, herauszufinden, wie diese KI-Tools in medizinischen Szenarien eingesetzt werden können. Veröffentlicht als Vordruck Diese am 7. Februar 2023 veröffentlichte Studie ist die erste ihrer Art, die die klinischen Entscheidungsfähigkeiten von ChatGPT testet, und die erste, die GPT 4 im Vergleich zu älteren Iterationen testet.

Siehe auch  Hoppla! Elon Musks Grok AI wurde beim Plagiieren von OpenAIs ChatGPT erwischt

Wenn ein Hausarzt spezielle Tests anordnet, beispielsweise für eine Patientin, die über Brustschmerzen klagt, weiß er möglicherweise nicht, welcher Bildgebungstest am besten geeignet ist. Dabei kann es sich um ein MRT, einen Ultraschall, eine Mammographie oder einen anderen bildgebenden Test handeln. Bei der Entscheidungsfindung orientieren sich Radiologen im Allgemeinen an den Angemessenheitskriterien des American College of Radiology. Diese evidenzbasierten Richtlinien sind Fachleuten gut bekannt, jedoch weniger bekannt für Laien, die viele während des Patientenbesuchs den besten Bildgebungstest auswählen müssen. Dies kann beim Patienten zu Verwirrung führen und dazu führen, dass Patienten Tests erhalten, die sie nicht benötigen, oder die falschen Tests erhalten.

Die Forscher baten ChatGPT 3.5 und 4 von OpenAI, ihnen bei der Entscheidung zu helfen, welche Bildgebungstests für 21 erfundene Patientenszenarien verwendet werden sollten, bei denen es um die Notwendigkeit eines Brustkrebs-Screenings oder die Meldung von Brustschmerzen ging, und zwar anhand der Angemessenheitskriterien.

Sie stellten offene Fragen an die KI und gaben ChatGPT eine Liste mit Optionen. Sie testeten sowohl ChatGPT 3.5 als auch ChatGPT 4, eine neuere, fortschrittlichere Version. ChatGPT 4 übertraf 3,5, insbesondere angesichts der verfügbaren Bildoptionen. Auf die Frage nach Brustkrebsvorsorgeuntersuchungen und bei der Auswahl von Multiple-Choice-Bildgebungsoptionen beantwortete ChatGPT 3.5 beispielsweise durchschnittlich 88,9 % der Fragen richtig und ChatGPT 4 beantwortete etwa 98,4 % richtig.

„Diese Studie vergleicht ChatGPT nicht mit bestehenden Radiologen, da es sich beim bestehenden Goldstandard eigentlich um eine Reihe von Richtlinien handelt Amerikanisches College für Radiologie„Das ist der Vergleich, den wir durchgeführt haben“, sagte Succi. „Da es sich hierbei um eine rein additive Studie handelt, argumentieren wir nicht, dass die KI bei der Auswahl eines bildgebenden Tests besser ist als Ihr Arzt, sondern dass sie eine hervorragende Ergänzung sein kann, um die Zeit eines Arztes für nicht-interpretative Aufgaben zu optimieren.“

Siehe auch  Anwalt nutzt ChatGPT vor Gericht und bereut es nun „sehr“.

Die Integration von KI in die medizinische Entscheidungsfindung könnte direkt am Behandlungsort erfolgen. Wenn ein Hausarzt Daten in eine elektronische Gesundheitsakte eingibt, könnte das Programm ihn auf die besten Bildgebungsoptionen aufmerksam machen – dem Patienten eine Antwort darauf geben, was ihn erwartet, wenn er zum Test geht, und dem Arzt vorschlagen, welchen Test er bestellen sollte .

Die Forscher fügten hinzu, dass mithilfe von Datensätzen aus Krankenhäusern und anderen Forschungseinrichtungen eine fortschrittlichere medizinische KI erstellt werden könnte, um sie spezifischer für gesundheitsorientierte Anwendungen zu machen.

„Möglicherweise können wir ChatGPT mit verschiedenen Patienten- und Therapiedaten und Wissenssätzen verfeinern, um es auf bestimmte Patientengruppen zuzuschneiden“, sagte Succi. „Bei Mass General Brigham verfügen wir über spezialisierte Kompetenzzentren, in denen wir Patienten mit einigen der komplexesten und seltensten Krankheiten betreuen. Wir können unsere Erfahrungen und Lehren aus der Betreuung dieser Patientenfälle nutzen, um ein Modell zur Unterstützung seltener Krankheiten auszubilden und komplexe Diagnosen und stellen dieses Modell dann Zentren auf der ganzen Welt zur Verfügung, insbesondere Zentren, die diese Erkrankungen möglicherweise weniger häufig behandeln.

Doch bevor KI in die medizinische Entscheidungsfindung einbezogen wird, müsste sie umfassend auf Voreingenommenheit und Datenschutzbedenken getestet und für den Einsatz im medizinischen Umfeld zugelassen werden. Neue Vorschriften rund um medizinische KI könnten auch eine große Rolle dabei spielen, was in die Interaktion mit der Patientenversorgung gelangt.

Für mehr Informationen: massgeneralbrigham.org

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein