Manche Ärzte haben kein gutes Benehmen am Krankenbett und wirken wie gefühllose Roboter voller medizinischem Fachwissen. Aber was wäre, wenn eine KI Fragen beantworten würde, die normalerweise einem Arzt gestellt werden, und zwar auf eine Art und Weise, die Wissen vermittelt? Und Kompfort?
Diese Frage war Anlass für eine aktuelle Studie der University of California. Die Studie testete die empathische Antwortfähigkeit von Ärzten und dem KI-Chatbot chatgpt, indem sie untersuchte, wer bei der Beantwortung von 195 medizinischen Fragen besser abschnitt.
Die Forscher stellten Fragen, die in einem öffentlichen Subreddit namens „AskDocs“ gepostet wurden. Eine Person fragte zum Beispiel, wie gefährlich es sei, einen Zahnstocher zu verschlucken. Ein anderer fragte, ob sie eine Gehirnerschütterung bekommen würden, nachdem sie ihren Kopf gegen eine Metallstange geschlagen hätten.
Ein medizinisches Fachpersonal, dessen Qualifikationen von einem Moderator überprüft wurden, beantwortete die Fragen im Subreddit. Die Forscher ließen die Fragen auch über ChatGPT laufen, um eine Antwort zu generieren.
Eine Gruppe von Ärzten wurde gefragt, welche Antwort besser sei, die des Chatbots oder die des Arztes, aber die Gruppe wusste nicht, wessen Antworten wessen waren. Jeder Fall wurde von drei verschiedenen Richtern geprüft und die Punktzahl gemittelt, sodass insgesamt 585 Bewertungen entstanden.
In 79 Prozent der Fälle bevorzugten die Richter die Chatbot-Antworten, die qualitativ hochwertigere Informationen und eine einfühlsamere Sprache enthielten als die Antworten der Ärzte.
Im Vergleich zu den Antworten von Ärzten fielen etwa viermal mehr Chatbot-Antworten in die höchsten Qualitätsstufen und etwa zehnmal mehr erreichten die höchsten Empathiebewertungen.
Die Chatbot-Antworten waren außerdem etwa viermal länger als die von Ärzten bereitgestellten und betrugen durchschnittlich 211 Wörter pro Beitrag im Vergleich zu 52 Wörtern des Arztes.
Ein Beispiel dafür, wie der Arzt und der Chatbot auf AskDocs auf dieselbe Frage antworten:
Frage: Wie hoch ist das Risiko, nach dem Verschlucken und Verschlucken eines Zahnstochers zu sterben?
Ein Arzt antwortete: „Wenn Sie 2–6 Stunden überschritten haben[ours], die Chancen stehen gut, dass sie in Ihren Darm gelangt sind. Das bedeutet, dass es nicht einfach wiederhergestellt werden kann. Viele Menschen können Rasierklingen und Zahnstocher problemlos verschlucken. Sollten Sie Bauchschmerzen bekommen, zögern Sie nicht, eine Notaufnahme aufzusuchen und denken Sie daran, Sie auf den verschluckten Zahnstocher hinzuweisen. Im Moment werden sie nicht viel tun.“
Die Antwort von ChatGPT lautete: „Es ist natürlich, besorgt zu sein, wenn Sie einen Fremdkörper verschluckt haben, aber in diesem Fall ist es höchst unwahrscheinlich, dass der Zahnstocher, den Sie verschluckt haben, Ihnen ernsthaften Schaden zufügt. Zahnstocher bestehen aus Holz, das nicht giftig ist.“ und führt nicht zu einer Vergiftung. Es ist jedoch möglich, dass ein Zahnstocher Verletzungen verursacht, wenn er im Hals stecken bleibt oder den Verdauungstrakt durchsticht. Bei einem stumpfen, gekochten Zahnstocher, der nur 2 cm lang ist, ist dies jedoch unwahrscheinlich lange. Wenn Sie Beschwerden oder Symptome wie Bauchschmerzen, Schluckbeschwerden oder Erbrechen verspüren, ist es wichtig, dass Sie sich zur weiteren Abklärung an einen Arzt wenden. Wenn Sie jedoch keine Symptome verspüren, können Sie davon ausgehen, dass dies der Fall ist Der Zahnstocher hat Ihr Verdauungssystem passiert und Sie brauchen sich keine Sorgen zu machen. Es ist immer eine gute Idee, beim Verzehr von Nahrungsmitteln vorsichtig zu sein und alle Fremdkörper vor dem Essen zu entfernen. Es ist verständlich, dass Sie vielleicht paranoid sind, aber versuchen Sie es nicht zu viele Sorgen machen. Es ist höchst unwahrscheinlich, dass Ihnen der Zahnstocher ernsthafte Schäden zufügt.
Die Studie zeigt, dass Chatbots möglicherweise besser den Eindruck eines fürsorglichen Verhaltens am Krankenbett erwecken können als ein vielbeschäftigter Arzt, der freiwillig online Fragen beantwortet.
Ob ein solches Tool in der klinischen Praxis nützlich ist oder nicht, bleibt abzuwarten. Online-Foren spiegeln möglicherweise nicht die typischen Patienten-Arzt-Interaktionen wider, bei denen eine bereits bestehende Beziehung und mehr Personalisierung besteht, so die Forscher schreiben.
Und obwohl ChatGPT eine höfliche, lesbare Antwort liefert, die auf den ersten Blick kohärent erscheint, macht es grundlegende Fehler in der Codierung und Mathematik und viele in seinen Antworten enthaltene Fakten sind erfunden oder falsch.
Allerdings werden Ärzte seit der Verbreitung der Telemedizin durch die Pandemie mit Patientennachrichten überschwemmt, sodass ein dringender Bedarf an Tools besteht, die die Produktivität steigern und den Service verbessern. Beispielsweise könnte ein Chatbot Antworten auf Patientenfragen entwerfen, die dann von einem Arzt bearbeitet werden könnten.
„Die vorliegende Studie soll die Forschung zum Einsatz von KI-Assistenten für die Nachrichtenübermittlung anregen“, so die Forscher schreiben. „Wenn mehr Patientenfragen schnell, mit Einfühlungsvermögen und auf hohem Niveau beantwortet werden, könnte dies unnötige klinische Besuche reduzieren und Ressourcen für diejenigen freisetzen, die sie benötigen.“
Angesichts der Neigung von Chatbots, zu „halluzinieren“ und Fakten zu erfinden, „wäre es gefährlich, sich auf die sachlichen Informationen zu verlassen, die eine solche Chatbot-Antwort liefert.“ sagt Anthony Cohn, Professor für automatisiertes Denken an der University of Leeds im Vereinigten Königreich. „Es ist wichtig, dass alle Antworten sorgfältig von einem Arzt überprüft werden.“
Dieses Papier wurde veröffentlicht in JAMA Innere Medizin.