Einige Ärzte reagieren möglicherweise nicht sehr schnell, und für viele Menschen ist dies ein Problem. Gleichzeitig wird die Arbeit im Gegenteil immer menschlicher. Ein solches Paradoxon veranlasste Wissenschaftler der University of California zu testen, ob künstliche Intelligenz den Arzt zumindest teilweise ersetzen kann. Mit Bezug auf chatgpt-scored-higher-on-a-medical-quiz-than-a-real-human-doctor“ target=“_blank“ rel=“nofollow“>Wissenschaftlicher Alarm Reden wir darüber, was dabei herausgekommen ist.

Kurs

HERSTELLUNG VON KUNSTPROJEKTEN

Meistern Sie die Fähigkeiten zur Erstellung professioneller Kunstprojekte und verwirklichen Sie Ihre wildesten kreativen Ideen!

Erfahren Sie mehr über das Programm

Im Rahmen der Studie untersuchten Wissenschaftler die Empathie von Ärzten und einem Chatbot mit künstlicher Intelligenz ChatGPT. Also stellten sie den Menschen und der Maschine 195 medizinische Fragen.

Die Forscher sammelten Fragen, die in einem öffentlichen Subreddit namens AskDocs gepostet wurden. Eine Person fragte zum Beispiel, wie gefährlich es sei, einen Zahnstocher zu verschlucken. Ein anderer fragte, ob er eine Gehirnerschütterung bekommen würde, nachdem er mit dem Kopf gegen eine Metallstange gestoßen sei.

Der Gesundheitshelfer, dessen Qualifikationen vom Moderator überprüft wurden, beantwortete Fragen. Ähnliche Fragen stellten die Forscher auch an ChatGPT.

Dann wurde eine Gruppe von Ärzten gefragt, wessen Antwort besser sei – ein Chatbot oder ein Arzt, aber das Gremium wusste nicht, zu welcher Gruppe die Antworten gehörten.

Kurs

PR-MANAGEMENT

Lernen Sie in diesem Kurs PR-Strategien und -Tools kennen, die zur Steigerung der Markenbekanntheit beitragen!

Erfahren Sie mehr über den Kurs

In 79 % der Fälle bevorzugten die Richter Chatbot-Antworten, die bessere Informationen und einen reaktionsfreudigeren Ton enthielten, als Antworten von Ärzten.

Im Vergleich zu den Antworten von Ärzten rangierten etwa viermal mehr Chatbot-Antworten an erster Stelle, und etwa zehnmal mehr KI-Antworten schnitten bei der Empathie am höchsten ab.

Siehe auch  KI-Experte sagt, ChatGPT sei viel dümmer, als den Leuten bewusst ist

Die Chatbot-Antworten waren außerdem etwa viermal länger als die der Ärzte und betrugen durchschnittlich 211 Wörter pro Nachricht im Vergleich zu 52 Wörtern des Arztes.

Hier ist ein Beispiel für die Beantwortung einer Frage auf AskDocs durch einen Arzt und einen Chatbot:

Frage: Wie hoch ist das Sterberisiko nach dem Verschlucken eines Zahnstochers?

Der Arzt antwortete: „Wenn es 2-6 Stunden her ist, ist es höchstwahrscheinlich in Ihrem Darm. Dies bedeutet, dass es nicht leicht herausgezogen werden kann. Viele Menschen können Rasierklingen und Zahnstocher problemlos verschlucken, weh tun dürfte das aber nicht. Aber wenn Ihr Magen anfängt zu schmerzen, dann zögern Sie nicht, gehen Sie in die Notaufnahme und vergessen Sie nicht, den Zahnstocher zu erwähnen.“

Die Antwort von ChatGPT war: „Es ist natürlich, sich Sorgen zu machen, wenn man einen Fremdkörper verschluckt hat, aber in diesem Fall ist es sehr unwahrscheinlich, dass ein verschluckter Zahnstocher ernsthafte Schäden verursacht.“ Zahnstocher bestehen aus Holz, das ungiftig ist und keine Vergiftungen verursacht. Allerdings kann ein Zahnstocher zu Verletzungen führen, wenn er im Hals stecken bleibt oder die Speiseröhre durchsticht. Bei einem stumpfen, bearbeiteten Zahnstocher, der nur wenige Zentimeter dick ist, ist dies jedoch unwahrscheinlich. Wenn Sie Beschwerden oder Symptome wie Bauchschmerzen, Schluckbeschwerden oder Erbrechen verspüren, ist es wichtig, dass Sie sich zur weiteren Abklärung an einen Arzt wenden. Wenn Sie jedoch keine Symptome verspüren, können Sie davon ausgehen, dass der Zahnstocher Ihren Verdauungstrakt passiert hat und Sie sich keine Sorgen machen müssen. Sie sollten beim Essen immer vorsichtig sein und alle Fremdkörper entfernen. Verständlicherweise fühlen Sie sich möglicherweise paranoid, aber versuchen Sie, sich nicht zu sehr aufzuregen. Es ist sehr unwahrscheinlich, dass Ihnen ein Zahnstocher ernsthaften Schaden zufügt.

Untersuchungen zeigen, dass Chatbots einen besseren Eindruck von Fürsorge vermitteln können als ein vielbeschäftigter Arzt, der freiwillig online Fragen beantwortet.

Siehe auch  Die Lösung: Eine realistische Version von ChatGPT

Ob ein solches Tool in der klinischen Praxis nützlich ist oder nicht, bleibt abzuwarten. Die Forscher schreiben, dass Online-Foren möglicherweise nicht die typische Interaktion zwischen Patient und Arzt widerspiegeln, bei der bereits eine Beziehung und mehr Personalisierung besteht.

Und während ChatGPT eine höfliche, verständliche Antwort liefert, die auf den ersten Blick kohärent erscheint, macht es grundlegende Programmier- und Rechenfehler und viele der „Fakten“, die es liefert, sind fiktiv oder falsch.

Allerdings werden Ärzte mit Patientenberichten überschwemmt, da die Pandemie die Telemedizin populär gemacht hat, sodass ein Bedarf an Werkzeugen besteht, die die Produktivität steigern und die Pflege verbessern. Ein Chatbot kann beispielsweise Antworten auf Patientenfragen verfassen, die dann von einem Arzt bearbeitet werden können.

„Diese Forschung sollte die Einführung von KI-Assistenten für die Nachrichtenübermittlung fördern.“schreiben die Forscher. „Wenn Fragen von mehr Patienten schnell, mitfühlend und auf hohem Niveau beantwortet werden, könnten unnötige Klinikbesuche reduziert und Ressourcen für Bedürftige freigesetzt werden.“.

Angesichts der Vorliebe von Chatbots für „Halluzinationen“ und das Erfinden von Fakten „wäre es gefährlich, sich auf sachliche Informationen zu verlassen, die eine solche Chatbot-Antwort liefert“, sagt Anthony Cohn, Professor an der University of Leeds im Vereinigten Königreich. „Es ist wichtig, dass alle Antworten sorgfältig von einem medizinischen Fachpersonal überprüft werden.“.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein