New York: Laut einer Studie kann chatgpt von OpenAI den klinischen Entscheidungsprozess unterstützen, auch bei der Auswahl der richtigen radiologischen Bildgebungstests für die Brustkrebsvorsorge oder Brustschmerzen.

Die von Forschern von Mass General Brigham in den USA durchgeführte Studie legt nahe, dass große Sprachmodelle das Potenzial haben, die Entscheidungsfindung von Hausärzten und überweisenden Anbietern bei der Beurteilung von Patienten und der Anordnung von bildgebenden Tests für Brustschmerzen und Brustkrebsvorsorgeuntersuchungen zu unterstützen. Ihre Ergebnisse werden im Journal of the American College of Radiology veröffentlicht.

„In diesem Szenario waren die Fähigkeiten von ChatGPT beeindruckend“, sagte der korrespondierende Autor Marc D. Succi, stellvertretender Vorsitzender für Innovation und Kommerzialisierung bei Mass General Brigham Radiology und Geschäftsführer des MESH Incubator.

„Ich sehe es als eine Art Brücke zwischen dem überweisenden medizinischen Fachpersonal und dem erfahrenen Radiologen, der als ausgebildeter Berater einspringt und ohne Verzögerung den richtigen Bildgebungstest am Behandlungsort empfiehlt.“

„Dies könnte den Verwaltungsaufwand für überweisende und konsultierende Ärzte beim Treffen dieser evidenzbasierten Entscheidungen reduzieren, den Arbeitsablauf optimieren, Burnout reduzieren und die Verwirrung und Wartezeiten der Patienten reduzieren“, sagte Succi.

In der Studie baten die Forscher ChatGPT 3.5 und 4 um Hilfe bei der Entscheidung, welche Bildgebungstests für 21 erfundene Patientenszenarien verwendet werden sollten, bei denen es um die Notwendigkeit eines Brustkrebs-Screenings oder die Meldung von Brustschmerzen anhand der Angemessenheitskriterien ging.

Sie stellten offene Fragen an die KI und gaben ChatGPT eine Liste mit Optionen. Sie testeten sowohl ChatGPT 3.5 als auch ChatGPT 4, eine neuere, fortschrittlichere Version.

ChatGPT 4 übertraf 3,5, insbesondere angesichts der verfügbaren Bildoptionen.

Als beispielsweise die Frage nach Brustkrebs-Screenings gestellt wurde und Multiple-Choice-Bildgebungsoptionen zur Verfügung standen, beantwortete ChatGPT 3.5 durchschnittlich 88,9 Prozent der Fragen richtig, und ChatGPT 4 beantwortete etwa 98,4 Prozent der Fragen richtig.

Siehe auch  Grok, Elon Musks ChatGPT wird nächste Woche starten

„Diese Studie vergleicht ChatGPT nicht mit bestehenden Radiologen, da der bestehende Goldstandard eigentlich eine Reihe von Richtlinien des American College of Radiology ist, was der Vergleich ist, den wir durchgeführt haben“, sagte Succi.

„Da es sich hierbei um eine rein additive Studie handelt, argumentieren wir nicht, dass die KI bei der Auswahl eines Bildgebungstests besser ist als Ihr Arzt, sondern dass sie eine hervorragende Ergänzung sein kann, um die Zeit eines Arztes für nicht interpretierende Aufgaben zu optimieren.“

Dieser Beitrag wurde zuletzt am 24. Juni 2023 um 13:47 Uhr geändert

4.8/5 - (165 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein