Während KI Ärzte nicht ersetzen kann, kann KI genaue, einfühlsame Antworten verfassen.
Quelle: Karolina Grabowska / Pexels
Eine neue Studie veröffentlicht in JAMA Innere Medizin schlägt vor, dass KI-Tools Ärzten helfen könnten, indem sie qualitativ hochwertige und einfühlsame schriftliche Antworten für Patienten verfassen. Die Studie verglich chatgpt mit schriftlichen Antworten von Ärzten im Social-Media-Onlineforum Reddit's AskDocs. AskDocs ist ein Subreddit, in dem Mitglieder öffentlich medizinische Fragen posten und verifizierte medizinische Fachkräfte Antworten einreichen können.
Die Forscher befragten nach dem Zufallsprinzip 195 verifizierte Antworten von Ärzten auf eine öffentliche Frage auf AskDocs und stellten ChatGPT dieselbe Frage. Anschließend wählte ein Gremium aus drei unabhängigen, zugelassenen medizinischen Fachkräften die bessere Antwort und beurteilte die Qualität der bereitgestellten Informationen sowie das Maß an Empathie oder Verhalten am Krankenbett.
Ohne zu wissen, ob die Antworten von einem Arzt oder von ChatGPT verfasst wurden, entschieden sich die unabhängigen Gesundheitsexperten in 79 % der Fälle für die Antworten von ChatGPT. ChatGPT-Antworten wurden hinsichtlich der Qualität 3,6-mal höher und hinsichtlich der Empathie 9,8-mal höher bewertet als die Antworten von Ärzten. Die ChatGPT-Antworten waren deutlich länger (durchschnittlich 211 Wörter) im Vergleich zu den viel kürzeren Antworten der Ärzte (durchschnittlich 52 Wörter). Das klinische Team, das die Antworten auswertete, stellte fest, dass die ChatGPT-Antworten sowohl differenziert als auch genau waren.
John W. Ayers et al. / JAMA Innere Medizin 2023
Hier sind vier aufkommende Trends im Zusammenhang mit der Zukunft der KI-Erweiterung für die Reaktion von Ärzten auf Patienten:
1. Forschung zu KI-Tools, die in klinische Umgebungen integriert sind, wird hilfreich sein.
Diese Studie schlägt keinen KI-Ersatz von Ärzten vor und fand nicht in einem klinischen Umfeld statt, unterstreicht jedoch das Potenzial von KI-Assistenten wie ChatGPT, hilfreiche Antworten für Kliniker zu verfassen, die Patienten antworten. Der nächste Schritt wird darin bestehen, zu untersuchen, wie KI-Assistenten in klinischen Umgebungen funktionieren (anstelle eines öffentlichen Social-Media-Forums), einschließlich ihrer Leistung, wenn sie nahtlos in bestehende sichere elektronische medizinische Plattformen integriert werden, auf denen Kliniker direkte private Fragen von Patienten beantworten. Die Arten von Fragen in einem privaten klinischen Umfeld können spezifischer auf einzelne Fälle zugeschnitten sein und möglicherweise anders formuliert sein als diejenigen, die in öffentlichen Foren gestellt werden. Privatpatientenfragen können davon ausgehen, dass der Arzt bereits Kenntnisse über ihre Situation hat oder sich auf zuvor persönlich besprochene Inhalte beziehen. Diese Art von Fragen kann ChatGPT vor unterschiedliche Herausforderungen stellen.
2. KI-Augmentation hat das Potenzial, Burnout und Mitgefühlsmüdigkeit bei Ärzten und Klinikern zu lindern.
KI-Assistenten empfinden weder Empathie noch Gefühle. Der Vorteil besteht also darin, dass sie keine Mitgefühlsermüdung verspüren, wie dies bei Menschen der Fall ist. Der Burnout bei Ärzten nimmt zu und ist mit einer Überlastung durch Verwaltungsaufgaben verbunden. Laut Medscape 2023 Physician Burnout and Depression Bericht53 % der Ärzte geben an, ausgebrannt zu sein, wobei fast ein Viertel der Ärzte über Symptome einer Depression berichtet. Der wichtigste Faktor, der zum Burnout beitrug, waren administrative und bürokratische Aufgaben, wobei Ärzte berichteten, dass sie mehr als neun Stunden pro Woche außerhalb der Arbeit verbringen Dokumentation. KI-Tools können einen Teil dieser Arbeit erleichtern, indem sie Antwortentwürfe für die Patientenkommunikation bereitstellen.
3. Schulungen für Kliniker, die KI-Einschränkungen, einschließlich Voreingenommenheit, berücksichtigen, werden wichtig sein.
KI-Modelle bleiben in Bezug auf Voreingenommenheit, Halluzinationen und gelegentliche Fehleinschätzungen begrenzt, sodass die ärztliche und klinische Aufsicht nach wie vor unerlässlich ist, da bei der medizinischen Kommunikation die Gesundheit der Patienten auf dem Spiel steht. Klinikern sollten Schulungen und Schulungen angeboten werden, um sicherzustellen, dass sie sich dieser KI-Einschränkungen bewusst sind, um zu verhindern, dass Ärzte KI-generierte Antwortentwürfe verschicken, ohne sie überprüft zu haben.
4. Die langfristigen Auswirkungen von KI-Tools auf das Urteilsvermögen, die Entscheidungsfindung und die zwischenmenschlichen Interaktionen des Arztes sind derzeit nicht bekannt.
Die möglichen Auswirkungen der Abhängigkeit von KI-Tools sind unbekannt. Was sind die Nebenwirkungen, wenn sich Kliniker bei der Generierung dieser Reaktionen auf Patienten auf diese KI-Tools verlassen? Wird die in den KI-Trainingsdaten vorhandene Verzerrung das Verhalten, die Entscheidungsfindung oder die zwischenmenschlichen Interaktionen von Ärzten beeinflussen? Die Antwort auf diese Fragen ist ungewiss und wird Teil der Entdeckung sein, wie KI die Beziehung zwischen Arzt und Patient verändern kann.
Marlynn Wei, MD, PLLC © Copyright 2023. Alle Rechte vorbehalten.
Verweise
Ayers JW, Poliak A, Dredze M, et al. Vergleich von Chatbot-Antworten von Ärzten und künstlicher Intelligenz auf Patientenfragen, die in einem öffentlichen Social-Media-Forum gepostet wurden. JAMA Intern Med. 2023;183(6):589–596. doi:10.1001/jamainternmed.2023.1838