Laut einer am 23. Oktober veröffentlichten Studie ist chatgpt ein relativ sicheres und genaues Instrument zur Patientenaufklärung in der interventionellen Radiologie Kardiovaskuläre und interventionelle Radiologie.

Ein Team der Philipps-Universität Marburg in Deutschland untersuchte den Einsatz von GPT-3 und GPT-4 für eine ausführliche Patientenaufklärung vor interventionellen radiologischen Eingriffen und stellte fest, dass beide Versionen des Modells äußerst genau sind.

„Die Machbarkeit und Genauigkeit dieser Modelle legen nahe, dass sie eine vielversprechende Rolle bei der Revolutionierung der Patientenversorgung spielen. Dennoch müssen sich Benutzer möglicher Einschränkungen bewusst sein“, schrieben Erstautor Michael Scheschenja, MD, und Kollegen.

Trotz der Fortschritte und der zunehmenden Beliebtheit des Fachgebiets haben viele Patienten nur ein begrenztes Verständnis für interventionelle Verfahren, schreiben die Autoren. Während die Nutzung des Internets zur Suche nach Gesundheitsinformationen bereits ein weit verbreitetes Phänomen sei, bedarf die Nutzung großer Sprachmodelle wie ChatGPT für solche Zwecke einer Validierung, fügten sie hinzu.

Zu diesem Zweck untersuchte die Gruppe insbesondere die Machbarkeit der Verwendung von GPT-3 und GPT-4 zur Patientenaufklärung vor drei gängigen Verfahren: Portimplantationen, perkutane transluminale Angioplastie und transarterielle Chemoembolisation.

Die Forscher stellten 133 ausführliche Fragen auf Englisch zu diesen Verfahren, wobei die Antworten von zwei Radiologen mit vier und sieben Jahren Erfahrung anhand einer 5-Punkte-Likert-Skala auf ihre Genauigkeit hin bewertet wurden. Die Fragen deckten verschiedene Aspekte des Eingriffs ab, darunter allgemeine Informationen, die Vorbereitung des Eingriffs und den Eingriff selbst, Risiken und Komplikationen sowie die Nachsorge.

Sowohl GPT-3 als auch GPT-4 wurden in 31 % bzw. 35 % ihrer Antworten als „völlig richtig“ (Wertung von 5) und in 48 % und 47 % ihrer Antworten als „sehr gut“ (Wertung von 4) bewertet die Ergebnisse.

Siehe auch  Witze von ChatGPT: Wissenschaftler testeten den Sinn für Humor des Sprachmodells

Darüber hinaus lieferten GPT-3 und GPT-4 in 15,8 % bzw. 15,0 % der Fälle „akzeptable“ (Werte von 3) Antworten. Schließlich war GPT-3 in 5,3 % der Antworten „größtenteils falsch“ (Wertung 2), während GPT-4 mit nur 2,3 % eine geringere Rate solcher Vorkommnisse aufwies.

Letztendlich wurde keine Reaktion als potenziell schädlich identifiziert, stellten die Forscher fest.

„Die Ergebnisse dieser Studie zeigen das Potenzial von KI-gesteuerten Sprachmodellen, insbesondere GPT-3 und GPT-4, als Ressourcen für die spezifische Patientenaufklärung [interventional radiology]“, schrieb die Gruppe.

Die Forscher stellten Fallstricke fest. Wenn ChatGPT mit Abkürzungen umgeht, könne es zu Unklarheiten kommen, die Sprachverständlichkeit könne ein Problem darstellen und das mangelnde semantische Verständnis des Chatbots könne zu Verwirrung hinsichtlich Best Practices und veralteter Informationen führen, stellten sie fest.

„Zukünftige Studien sollten die Anwendbarkeit dieser Modelle bei echten Patienten bewerten“, schlussfolgerten die Forscher.

Der vollständige Artikel ist verfügbar Hier.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein