Die von chatgpt-4 (OpenAI) vorgeschlagenen umfassenden Behandlungspläne für Blutkreislaufinfektionen (BSIs) erwiesen sich für einige Patienten als zufriedenstellend, viele wurden jedoch als suboptimal oder schädlich angesehen. Diese Studienergebnisse wurden in veröffentlicht Klinische Infektionskrankheiten.

Der Einsatz künstlicher Intelligenz (KI) im Gesundheitswesen hat in letzter Zeit an Interesse gewonnen. Obwohl KI-Chatbots wie ChatGPT die medizinischen Zulassungsprüfungen in den USA bestehen können, ist unklar, ob sie eine zuverlässige Alternative zu Fachberatern im Patientenmanagement darstellen.

Forscher führten eine Studie durch, um die Qualität und Sicherheit der von ChatGPT-4 vorgeschlagenen Managementpläne für Patienten mit BSIs zu bewerten. Die vom KI-Chatbot empfohlenen umfassenden Managementpläne wurden mit denen verglichen, die von Beratern für Infektionskrankheiten (ID) vorgeschlagen wurden. Das umfassende Management umfasste Verdachtsdiagnosen oder bestätigte Diagnosen, Infektionsdiagnostik, Antibiotikatherapie, Quellenkontrolle und Nachsorgemanagement. Die Daten, die ChatGPT für Entscheidungen zum Patientenmanagement zur Verfügung gestellt wurden, wurden über einen Zeitraum von vier Wochen (April bis Mai 2023) erhoben und basierten auf ID-Konsultationen für Patienten mit positiven Blutkulturen in einem Krankenhaus der Tertiärversorgung.

Für die Analyse wurden insgesamt 73 positive Blutkulturen aus 44 BSI-Episoden bei 44 Patienten (Durchschnittsalter 71 Jahre) gesammelt. Insgesamt waren die Patienten überwiegend Männer (70 %).

Die Verwendung von ChatGPT-4 ohne Konsultationseingabe bleibt bei der Suche nach fachkundigem medizinischem Rat im Jahr 2023 gefährlich, insbesondere bei schweren Infektionskrankheiten.

Die von ChatGPT bereitgestellten formellen Bewertungen waren für alle Patienten detailliert und verständlich und enthielten die entsprechende medizinische Terminologie.

Die von ChatGPT vorgeschlagenen Diagnosen waren bei 59,0 % der Patienten mit denen der ID-Berater identisch. Allerdings wurden 14,0 % der vorgeschlagenen Diagnosen als unzureichend eingestuft, was in erster Linie auf die Fehlklassifizierung einer wahrscheinlichen Blutkulturkontamination als BSI zurückzuführen war. Darüber hinaus empfahl ChatGPT unnötige bildgebende Untersuchungen für 55 % der Patienten und versäumte es, notwendige diagnostische Verfahren für 20 % der Patienten zu ermitteln.

Siehe auch  Die Verluste von OpenAI verdoppelten sich auf 540 Millionen US-Dollar, als es ChatGPT entwickelte – The Information

Nach einer einzigen Bewertung wurde das von ChatGPT-4 empfohlene Antibiotika-Management für 41 % der Patienten als optimal, für 23 % als angemessen, aber nicht optimal und für 34 % als unzureichend angesehen. Bemerkenswert ist, dass die von ChatGPT vorgeschlagene Antibiotikabehandlung bei einem Patienten als unangemessen und schädlich angesehen wurde. Der Patient hatte eine fieberhafte Neutropenie ohne eindeutige mikrobiologische Diagnose.

Das von ChatGPT-4 bei Neubeurteilungsgesprächen vorgeschlagene endgültige Antibiotikamanagement wurde für 36 % der Patienten als optimal, für 55 % als angemessen, aber nicht optimal und für 5 % als unangemessen und schädlich angesehen. Zu den von ChatGPT empfohlenen suboptimalen Antibiotika-Behandlungen gehörten unangemessene Therapiedauern, die Verwendung ungeeigneter Wirkstoffe und eine unzureichende oder fehlende Antibiotika-Deeskalation.

Im Hinblick auf das Gesamtmanagement wurden ChatGPT-Vorschläge für 2 % der Patienten als optimal, für 39 % als angemessen und für 16 % als schädlich angesehen.

Zu den Einschränkungen der Studie zählen das Single-Center-Design und das Fehlen von Untersuchungen zur Verwendung alternativer textbasierter Eingabeaufforderungen und deren Einfluss auf ChatGPT-Empfehlungen. Die Forscher stellten außerdem fest, dass die Reaktionsgenauigkeit von KI-Chatbots in realen Umgebungen abnehmen kann, da die Empfehlungen von ChatGPT auf einer standardisierten Eingabeaufforderung mit verifizierten und vollständigen Informationen basierten.

„Die Verwendung von ChatGPT-4 ohne Beratungseingabe bleibt bei der Suche nach fachkundigem medizinischem Rat im Jahr 2023 gefährlich, insbesondere bei schweren Infektionskrankheiten“, stellten die Forscher fest. „[T]„Die Leistung von ChatGPT-4 war angesichts der Komplexität der klinischen Situationen zufriedenstellend, ist aber noch lange nicht optimal und bisher nicht auf die klinische Praxis übertragbar“, schlussfolgerten sie.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein