Während KI Ärzte nicht ersetzen kann, kann KI genaue, einfühlsame Antworten verfassen.

Quelle: Karolina Grabowska / Pexels

Eine neue Studie veröffentlicht in JAMA Innere Medizin schlägt vor, dass KI-Tools Ärzten helfen könnten, indem sie qualitativ hochwertige und einfühlsame schriftliche Antworten für Patienten verfassen. Die Studie verglich chatgpt mit schriftlichen Antworten von Ärzten im Social-Media-Onlineforum Reddit's AskDocs. AskDocs ist ein Subreddit, in dem Mitglieder öffentlich medizinische Fragen posten und verifizierte medizinische Fachkräfte Antworten einreichen können.

Der Artikel wird nach der Werbung fortgesetzt

Die Forscher befragten nach dem Zufallsprinzip 195 verifizierte Antworten von Ärzten auf eine öffentliche Frage auf AskDocs und stellten ChatGPT dieselbe Frage. Anschließend wählte ein Gremium aus drei unabhängigen, zugelassenen medizinischen Fachkräften die bessere Antwort und beurteilte die Qualität der bereitgestellten Informationen sowie das Maß an Empathie oder Verhalten am Krankenbett.

Ohne zu wissen, ob die Antworten von einem Arzt oder von ChatGPT verfasst wurden, entschieden sich die unabhängigen Gesundheitsexperten in 79 % der Fälle für die Antworten von ChatGPT. ChatGPT-Antworten wurden hinsichtlich der Qualität 3,6-mal höher und hinsichtlich der Empathie 9,8-mal höher bewertet als die Antworten von Ärzten. Die ChatGPT-Antworten waren deutlich länger (durchschnittlich 211 Wörter) im Vergleich zu den viel kürzeren Antworten der Ärzte (durchschnittlich 52 Wörter). Das klinische Team, das die Antworten auswertete, stellte fest, dass die ChatGPT-Antworten sowohl differenziert als auch genau waren.

John W. Ayers et al. / JAMA Innere Medizin 2023

Hier sind vier aufkommende Trends im Zusammenhang mit der Zukunft der KI-Erweiterung für die Reaktion von Ärzten auf Patienten:

1. Forschung zu KI-Tools, die in klinische Umgebungen integriert sind, wird hilfreich sein.

Siehe auch  ChatGPT lernt die usbekische Sprache: mit Usbekisch-Experte von We Digital

Diese Studie schlägt keinen KI-Ersatz von Ärzten vor und fand nicht in einem klinischen Umfeld statt, unterstreicht jedoch das Potenzial von KI-Assistenten wie ChatGPT, hilfreiche Antworten für Kliniker zu verfassen, die Patienten antworten. Der nächste Schritt wird darin bestehen, zu untersuchen, wie KI-Assistenten in klinischen Umgebungen funktionieren (anstelle eines öffentlichen Social-Media-Forums), einschließlich ihrer Leistung, wenn sie nahtlos in bestehende sichere elektronische medizinische Plattformen integriert werden, auf denen Kliniker direkte private Fragen von Patienten beantworten. Die Arten von Fragen in einem privaten klinischen Umfeld können spezifischer auf einzelne Fälle zugeschnitten sein und möglicherweise anders formuliert sein als diejenigen, die in öffentlichen Foren gestellt werden. Privatpatientenfragen können davon ausgehen, dass der Arzt bereits Kenntnisse über ihre Situation hat oder sich auf zuvor persönlich besprochene Inhalte beziehen. Diese Art von Fragen kann ChatGPT vor unterschiedliche Herausforderungen stellen.

Der Artikel wird nach der Werbung fortgesetzt

2. KI-Augmentation hat das Potenzial, Burnout und Mitgefühlsmüdigkeit bei Ärzten und Klinikern zu lindern.

KI-Assistenten empfinden weder Empathie noch Gefühle. Der Vorteil besteht also darin, dass sie keine Mitgefühlsermüdung verspüren, wie dies bei Menschen der Fall ist. Der Burnout bei Ärzten nimmt zu und ist mit einer Überlastung durch Verwaltungsaufgaben verbunden. Laut Medscape 2023 Physician Burnout and Depression Bericht53 % der Ärzte geben an, ausgebrannt zu sein, wobei fast ein Viertel der Ärzte über Symptome einer Depression berichtet. Der wichtigste Faktor, der zum Burnout beitrug, waren administrative und bürokratische Aufgaben, wobei Ärzte berichteten, dass sie mehr als neun Stunden pro Woche außerhalb der Arbeit verbringen Dokumentation. KI-Tools können einen Teil dieser Arbeit erleichtern, indem sie Antwortentwürfe für die Patientenkommunikation bereitstellen.

Siehe auch  ChatGPT verzeichnete im Juni zum ersten Mal einen Benutzerrückgang

3. Schulungen für Kliniker, die KI-Einschränkungen, einschließlich Voreingenommenheit, berücksichtigen, werden wichtig sein.

KI-Modelle bleiben in Bezug auf Voreingenommenheit, Halluzinationen und gelegentliche Fehleinschätzungen begrenzt, sodass die ärztliche und klinische Aufsicht nach wie vor unerlässlich ist, da bei der medizinischen Kommunikation die Gesundheit der Patienten auf dem Spiel steht. Klinikern sollten Schulungen und Schulungen angeboten werden, um sicherzustellen, dass sie sich dieser KI-Einschränkungen bewusst sind, um zu verhindern, dass Ärzte KI-generierte Antwortentwürfe verschicken, ohne sie überprüft zu haben.

4. Die langfristigen Auswirkungen von KI-Tools auf das Urteilsvermögen, die Entscheidungsfindung und die zwischenmenschlichen Interaktionen des Arztes sind derzeit nicht bekannt.

Die möglichen Auswirkungen der Abhängigkeit von KI-Tools sind unbekannt. Was sind die Nebenwirkungen, wenn sich Kliniker bei der Generierung dieser Reaktionen auf Patienten auf diese KI-Tools verlassen? Wird die in den KI-Trainingsdaten vorhandene Verzerrung das Verhalten, die Entscheidungsfindung oder die zwischenmenschlichen Interaktionen von Ärzten beeinflussen? Die Antwort auf diese Fragen ist ungewiss und wird Teil der Entdeckung sein, wie KI die Beziehung zwischen Arzt und Patient verändern kann.

Der Artikel wird nach der Werbung fortgesetzt

Marlynn Wei, MD, PLLC © Copyright 2023. Alle Rechte vorbehalten.

Verweise

Ayers JW, Poliak A, Dredze M, et al. Vergleich von Chatbot-Antworten von Ärzten und künstlicher Intelligenz auf Patientenfragen, die in einem öffentlichen Social-Media-Forum gepostet wurden. JAMA Intern Med. 2023;183(6):589–596. doi:10.1001/jamainternmed.2023.1838

5/5 - (251 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein