Von den Mitarbeitern der ASCO Post
Gepostet: 27.06.2023 10:43:00 Uhr
Letzte Aktualisierung:
Forscher haben herausgefunden, dass Sprachmodelle mit künstlicher Intelligenz (KI) wie chatgpt von OpenAI geeignete bildgebende Tests für Brustkrebs-Screenings und Brustschmerzen genau identifizieren können. Laut einer aktuellen Studie, die von Rao et al. im veröffentlicht wurde Zeitschrift des American College of Radiology. Die neuen Erkenntnisse deuten darauf hin, dass große Sprachmodelle möglicherweise das Potenzial haben, Erstversorger bei der Entscheidungsfindung, Patientenbeurteilung und der Bestellung von Bildgebungstests für Brustkrebs-Screenings und Brustschmerzen zu unterstützen. Hintergrund ChatGPT, ein großes Sprachmodell, das auf Daten aus dem Internet basiert, ist in der Lage, Fragen auf menschenähnliche Weise zu beantworten. Seit der Einführung von ChatGPT im November 2022 analysieren Forscher auf der ganzen Welt, wie diese KI-Sprachmodelle in medizinischen Szenarien eingesetzt werden können. Wenn Hausärzte spezielle Tests für Patientinnen anordnen, die über Brustschmerzen klagen, wissen sie möglicherweise nicht, welche bildgebenden Verfahren am besten geeignet sind – etwa Magnetresonanztomographie (MRT), Ultraschall, Mammographie oder ein anderes bildgebendes Verfahren. Bei der Entscheidungsfindung orientieren sich Radiologen im Allgemeinen an den Angemessenheitskriterien des American College of Radiology. Obwohl diese evidenzbasierten Leitlinien Fachleuten gut bekannt sind, sind sie für Laien, die während des Besuchs eines Patienten mit der Auswahl des am besten geeigneten bildgebenden Tests beauftragt sind, häufig weniger bekannt. Dies kann Patienten verwirren und zu unnötigen oder falschen Tests führen. „In diesem Szenario waren die Fähigkeiten von ChatGPT beeindruckend“, erklärte der leitende Studienautor Marc D. Succi, MD, Assistenzprofessor für Radiologie an der Harvard Medical School, stellvertretender Lehrstuhlinhaber für Innovation und Kommerzialisierung bei Mass General Brigham Enterprise Radiology und Gründer und Geschäftsführer des Medical Engineered Solutions in Healthcare Incubator am Massachusetts General Hospital. „Ich sehe es als eine Art Brücke zwischen dem überweisenden medizinischen Fachpersonal und dem erfahrenen Radiologen, der als ausgebildeter Berater einspringt und ohne Verzögerung den richtigen bildgebenden Test am Ort der Behandlung empfiehlt. Dies könnte den Verwaltungsaufwand sowohl bei der Überweisung als auch beim Arzt verkürzen.“ „Beratung von Ärzten beim Treffen dieser evidenzbasierten Entscheidungen, Optimierung des Arbeitsablaufs, Reduzierung von Burnout sowie Reduzierung der Verwirrung und Wartezeiten der Patienten“, fügte er hinzu. Studienmethoden und Ergebnisse In der aktuellen Studie erfanden die Forscher 21 Patientenszenarien, die die Notwendigkeit von Brustkrebs-Screenings oder der Meldung von Brustschmerzen beinhalteten, und baten ChatGPT-3.5 und das neuere, fortschrittlichere ChatGPT-4, ihnen bei der Entscheidung zu helfen, welche bildgebenden Tests verwendet werden sollten – mit dem Ziel ist es, die klinischen Entscheidungsfähigkeiten der KI-Sprachmodelle zu bewerten. Die Forscher fragten ChatGPT-3.5 und ChatGPT-4 auf offene Weise und indem sie den KI-Sprachmodellen eine Liste von Optionen gaben. Sie fanden heraus, dass ChatGPT-4 ChatGPT-3.5 übertraf, insbesondere angesichts der verfügbaren Bildoptionen. Als beispielsweise die Frage nach Brustkrebs-Screenings gestellt wurde und Multiple-Choice-Bildgebungsoptionen zur Verfügung standen, beantwortete ChatGPT-3.5 durchschnittlich 88,9 % der Fragen richtig und ChatGPT-4 beantwortete etwa 98,4 % davon richtig. „Diese Studie vergleicht ChatGPT nicht mit bestehenden Radiologen, da der bestehende Goldstandard eigentlich eine Reihe von Richtlinien des American College of Radiology ist, was der Vergleich ist, den wir durchgeführt haben“, bemerkte Dr. Succi. „Dies ist eine rein additive Studie. Wir argumentieren also nicht, dass KI besser ist als Ihre [physician] bei der Auswahl eines bildgebenden Tests, kann aber eine hervorragende Ergänzung zur Optimierung eines sein [physician’s] Zeit für nichtinterpretative Aufgaben.“ Schlussfolgerungen Die Forscher schlugen vor, ChatGPT in die medizinische Entscheidungsfindung am Point-of-Care zu integrieren. Wenn ein Hausarzt Daten in eine elektronische Gesundheitsakte eingibt, könnte das Programm ihn auf die besten Bildgebungsoptionen aufmerksam machen, den Patienten Erwartungen mitteilen, wenn sie sich den Tests unterziehen, und den Hausärzten die am besten geeigneten Tests zur Bestellung empfehlen. Die Forscher betonten außerdem, dass mithilfe von Datensätzen aus Krankenhäusern und anderen Forschungseinrichtungen ein fortschrittlicheres medizinisches KI-Sprachmodell erstellt werden könnte, um es spezifischer für gesundheitsorientierte Anwendungen zu machen. „Möglicherweise können wir ChatGPT mit verschiedenen Patienten- und Therapiedaten und Wissenssätzen verfeinern, um es auf bestimmte Patientengruppen zuzuschneiden“, betonte Dr. Succi. „Bei Mass General Brigham verfügen wir über spezialisierte Kompetenzzentren, in denen wir Patienten mit einigen der komplexesten und seltensten Krankheiten betreuen. Wir können unsere Erfahrungen und Lehren aus der Betreuung dieser Patientenfälle nutzen, um ein Modell zur Unterstützung seltener Krankheiten auszubilden und komplexe Diagnosen durchführen und dieses Modell dann Zentren auf der ganzen Welt zur Verfügung stellen, insbesondere Zentren, die diese Erkrankungen möglicherweise weniger häufig behandeln“, betonte er. Die Forscher kamen zu dem Schluss, dass ein KI-Sprachmodell, bevor es in die medizinische Entscheidungsfindung einbezogen wird, umfassend auf Voreingenommenheit und Datenschutzbedenken getestet und für den Einsatz in medizinischen Umgebungen zugelassen werden muss. Neue Vorschriften zu medizinischen KI-Sprachmodellen könnten auch Parameter dafür festlegen, was in Interaktionen mit der Patientenversorgung einbezogen werden sollte. Offenlegung: Die Forschung in dieser Studie wurde teilweise durch ein Stipendium des National Institute of General Medical Sciences unterstützt. Vollständige Offenlegungen der Studienautoren finden Sie unter jacr.org. Der Inhalt dieses Beitrags wurde nicht von der American Society of Clinical Oncology, Inc. (ASCO®) überprüft und spiegelt nicht unbedingt die Ideen und Meinungen von ASCO® wider.