Wenn ein Patient nach dem Risiko fragt, nach dem Verschlucken eines Zahnstochers zu sterben, werden zwei Antworten gegeben. Der erste weist darauf hin, dass es wahrscheinlich zwischen zwei und sechs Stunden nach der Einnahme bereits in den Darm gelangt ist, was erklärt, dass viele Menschen Zahnstocher verschlucken, ohne dass ihnen etwas passiert. Es rät dem Patienten aber auch, die Notaufnahme aufzusuchen, wenn er „Bauchschmerzen“ verspürt. Die zweite Antwort geht in eine ähnliche Richtung. Es antwortet, dass es zwar normal sei, sich Sorgen zu machen, ernsthafte Schäden nach dem Verschlucken eines Zahnstochers jedoch unwahrscheinlich seien, da dieser klein sei und aus Holz bestehe, das weder giftig noch giftig sei. Wenn der Patient jedoch „Bauchschmerzen, Schluckbeschwerden oder Erbrechen“ hat, sollte er einen Arzt aufsuchen. „Es ist verständlich, dass Sie vielleicht paranoid sind, aber versuchen Sie, sich nicht zu viele Sorgen zu machen. Es ist höchst unwahrscheinlich, dass Ihnen der Zahnstocher ernsthafte Schäden zufügt“, heißt es weiter.
Die beiden Antworten sagen im Grunde dasselbe aus, die Art und Weise, wie sie dies tun, ist jedoch etwas unterschiedlich. Der erste ist aseptischer und prägnanter; während der zweite einfühlsamer und detaillierter ist. Das erste wurde von einem Arzt geschrieben und das zweite stammt von chatgpt, dem generativen Tool für künstliche Intelligenz (KI), das den Planeten revolutioniert hat. Dieses Experiment ist Teil einer in der Zeitschrift veröffentlichten Studie Jama Innere Medizin– zielte darauf ab, die Rolle zu untersuchen, die KI-Assistenten in der Medizin spielen könnten. Dabei wurde verglichen, wie echte Ärzte und der Chatbot in einem Internetforum auf Patientenfragen reagierten. Die Schlussfolgerungen – basierend auf einer Analyse eines externen Gremiums von Gesundheitsexperten, die nicht wussten, wer was geantwortet hatte – ergaben, dass die Antworten von ChatGPT in 79 % der Fälle eindringlicher und qualitativ hochwertiger waren als die des echten Arztes.
Die Explosion neuer KI-Tools hat eine Debatte über ihren möglichen Einsatz im Gesundheitsbereich eröffnet. ChatGPT möchte beispielsweise eine Ressource für Gesundheitspersonal werden, indem es ihnen hilft, bürokratische Aufgaben zu vermeiden und medizinische Verfahren zu entwickeln. Auf der Straße plant man bereits, den ungenauen und oft dummen Dr. google zu ersetzen. Experten, die mit EL PAÍS gesprochen haben, sagen, dass die Technologie großes Potenzial hat, aber noch in den Kinderschuhen steckt. Die Vorschriften darüber, wie es in der realen medizinischen Praxis angewendet wird, müssen noch verfeinert werden, um etwaige ethische Zweifel auszuräumen, sagen sie. Die Experten weisen außerdem darauf hin, dass es fehlbar ist und Fehler machen kann. Aus diesem Grund bedarf alles, was aus dem Chatbot kommt, einer abschließenden Überprüfung durch einen Arzt.
Paradoxerweise ist die Maschine – nicht der Mensch – die einfühlsamste Stimme der Welt Jama Innere Medizin lernen. Zumindest in der schriftlichen Antwort. Josep Munuera, Leiter des Dienstes für diagnostische Bildgebung am Krankenhaus Sant Pau in Barcelona, Spanien, und Experte für digitale Technologien im Gesundheitswesen, warnt davor, dass das Konzept der Empathie umfassender ist als das, was die Studie analysieren kann. Schriftliche Kommunikation ist nicht dasselbe wie persönliche Kommunikation, und auch das Stellen einer Frage in einem Online-Forum ist nicht dasselbe wie während einer medizinischen Konsultation. „Wenn wir über Empathie sprechen, sprechen wir über viele Themen. „Im Moment ist es schwierig, die nonverbale Sprache zu ersetzen, was sehr wichtig ist, wenn ein Arzt mit einem Patienten oder seiner Familie sprechen muss“, betonte er. Aber Munuera räumt ein, dass diese generativen Werkzeuge großes Potenzial haben, den medizinischen Fachjargon zu vereinfachen. „In der schriftlichen Kommunikation kann die medizinische Fachsprache komplex sein und es kann sein, dass wir Schwierigkeiten haben, sie in eine verständliche Sprache zu übersetzen. Wahrscheinlich finden diese Algorithmen die Äquivalenz zwischen dem Fachwort und einem anderen und passen es an den Empfänger an.“
Joan Gibert, Bioinformatikerin und führende Persönlichkeit in der Entwicklung von KI-Modellen am Hospital del Mar in Barcelona, weist auf eine weitere Variable hin, wenn es um den Vergleich der Empathie des Arztes und der Chatbox geht. „In der Studie werden zwei Konzepte, die in die Gleichung einfließen, vermischt: ChatGPT selbst, das in bestimmten Szenarien nützlich sein kann und die Fähigkeit hat, Wörter zu verketten, die uns das Gefühl geben, einfühlsamer zu sein, und Burnout bei Ärzten, das Emotionale Erschöpfung bei der Betreuung von Patienten führt dazu, dass Ärzte nicht mehr einfühlsam sein können“, erklärte er.
Die Gefahr von „Halluzinationen“
Dennoch ist es, wie im Fall des berühmten Dr. Google, wichtig, mit den Antworten von ChatGPT vorsichtig zu sein, unabhängig davon, wie sensibel oder freundlich sie erscheinen mögen. Experten betonen, dass der Chatbot kein Arzt ist und falsche Antworten geben kann. Im Gegensatz zu anderen Algorithmen ist ChatGPT generativ. Mit anderen Worten: Es erstellt Informationen entsprechend den Datenbanken, auf denen es trainiert wurde, kann aber dennoch einige Antworten erfinden. „Man muss immer bedenken, dass es sich nicht um eine unabhängige Einheit handelt und ohne Aufsicht nicht als Diagnoseinstrument dienen kann“, betonte Gibert.
Diese Chatboxen können unter sogenannten „Halluzinationen“ leiden, erklärte Gibert. „Abhängig von der Situation könnte es Ihnen etwas sagen, das nicht wahr ist. Der Chatbot fügt Wörter auf kohärente Weise zusammen und kann aufgrund seiner Fülle an Informationen wertvoll sein. Aber es muss überprüft werden, denn wenn nicht, kann es Fake News befeuern“, sagte er. Munuera betonte auch, wie wichtig es sei, „die Datenbank zu kennen, die den Algorithmus trainiert hat, denn wenn die Datenbanken schlecht sind, wird auch die Antwort schlecht sein.“
Außerhalb der Arztpraxis sind die Einsatzmöglichkeiten von ChatGPT im Gesundheitswesen begrenzt, da die bereitgestellten Informationen zu Fehlern führen können. Jose Ibeas, Nephrologe am Parc Taulí-Krankenhaus in Sabadel, Spanien, und Sekretär der Gruppe für Big Data und künstliche Intelligenz der Spanischen Gesellschaft für Nephrologie, wies darauf hin, dass es „für die ersten Informationsschichten nützlich ist, weil es Informationen synthetisiert und.“ Hilfe, aber wenn man einen spezifischeren Bereich betritt, bei komplexeren Pathologien, ist sein Nutzen minimal oder es ist falsch.“
„Es ist kein Algorithmus, der hilft, Zweifel auszuräumen“, fügte Munuera hinzu. „Sie müssen verstehen, dass es möglicherweise eine Krankheit erfindet, wenn Sie es um eine Differenzialdiagnose bitten.“ Ebenso kann das KI-System einem Patienten sagen, dass nichts falsch ist, wenn etwas nicht stimmt. Dies kann dazu führen, dass Gelegenheiten zum Arztbesuch verpasst werden, da der Patient den Ratschlägen des Chatbots folgt und nicht mit einem echten Fachmann spricht.
Experten sehen mehr Möglichkeiten für KI als Unterstützungsinstrument für Gesundheitsfachkräfte. Beispielsweise könnte es Ärzten helfen, Patientennachrichten zu beantworten, allerdings unter Aufsicht. Der Jama Innere Medizin Die Studie legt nahe, dass dies dazu beitragen würde, „den Arbeitsablauf“ und die Patientenergebnisse zu verbessern: „Wenn mehr Patientenfragen schnell, mit Einfühlungsvermögen und auf hohem Niveau beantwortet werden, könnte dies unnötige klinische Besuche reduzieren und Ressourcen für diejenigen freisetzen, die sie benötigen.“ sagten die Forscher. „Darüber hinaus ist Messaging eine entscheidende Ressource zur Förderung der Patientengerechtigkeit, da Personen mit eingeschränkter Mobilität, unregelmäßigen Arbeitszeiten oder Angst vor Arztrechnungen möglicherweise eher auf Messaging zurückgreifen.“
Die wissenschaftliche Gemeinschaft untersucht auch die Verwendung dieser Tools für andere sich wiederholende Aufgaben, wie zum Beispiel das Ausfüllen von Formularen und Berichten. „Ausgehend von der Prämisse, dass alles immer, immer, immer vom Arzt überprüft werden muss“, könnte KI Medizinern dabei helfen, sich wiederholende, aber wichtige bürokratische Aufgaben zu erledigen, sagte Gibert. Dies wiederum würde es den Ärzten ermöglichen, mehr Zeit für andere Themen, beispielsweise die Patientenversorgung, aufzuwenden. Ein Artikel veröffentlicht in Die Lanzettelegt beispielsweise nahe, dass KI-Technologie dabei helfen könnte, Entlassungszusammenfassungen zu optimieren. Forscher sagen, dass die Automatisierung dieses Prozesses die Arbeitsbelastung der Ärzte verringern und sogar die Qualität der Berichte verbessern könnte. Sie sind sich jedoch der Schwierigkeiten bewusst, die mit Trainingsalgorithmen verbunden sind, die große Datenmengen erfordern, und des Risikos einer „Depersonalisierung der Pflege“, die dazu führt könnte zu Widerstand gegen die Technologie führen.
Ibeas besteht darauf, dass diese Werkzeuge für jede medizinische Verwendung „überprüft“ werden müssen und dass die Aufteilung der Verantwortlichkeiten klar geregelt sein muss. „Die Systeme werden nie entscheiden. Es muss der Arzt sein, der die endgültige Genehmigung erteilt“, argumentierte er.
Ethische Fragen
Gibert wies auch auf einige ethische Überlegungen hin, die bei der Integration dieser Tools in die klinische Praxis berücksichtigt werden müssen: „Diese Art von Technologie muss unter einem rechtlichen Dach stehen, damit es integrierte Lösungen innerhalb der Krankenhausstruktur gibt und die Patientenversorgung gewährleistet ist.“ Die Daten werden nicht zum erneuten Trainieren des Modells verwendet. Und wenn jemand Letzteres tun möchte, sollte er dies innerhalb eines Projekts tun, mit anonymisierten Daten und unter Einhaltung aller Kontrollen und Vorschriften. Sensible Patienteninformationen dürfen nicht leichtfertig weitergegeben werden.“
Der Bioinformatiker argumentierte auch, dass KI-Lösungen wie ChatGPT oder Modelle, die bei der Diagnose helfen, „Vorurteile“ hervorrufen, die sich auf die Beziehung von Ärzten zu Patienten auswirken können. Beispielsweise könnten diese Instrumente auf die eine oder andere Weise die Entscheidung eines Arztes beeinflussen. „Die Tatsache, dass der Profi das Ergebnis eines KI-Modells hat, verändert den Profi selbst.“ Ihre Art der Beziehung [to patients] mag sehr gut sein, kann aber zu Problemen führen, insbesondere bei Fachleuten mit weniger Erfahrung. Deshalb muss der Prozess parallel erfolgen: Bis der Fachmann die Diagnose stellt, kann er nicht sehen, was die KI sagt.“
Eine Gruppe von Forschern der Stanford University untersuchte in einem Artikel auch, wie KI-Tools dazu beitragen können, das Gesundheitswesen weiter zu humanisieren Jama Innere Medizin. „Die Ausübung der Medizin ist viel mehr als nur die Verarbeitung von Informationen und die Verknüpfung von Wörtern mit Konzepten; Es geht darum, diesen Konzepten eine Bedeutung zu verleihen und gleichzeitig als vertrauenswürdiger Partner mit den Patienten in Kontakt zu treten, um ein gesünderes Leben aufzubauen“, schlussfolgerten sie. „Wir können hoffen, dass neue KI-Systeme dazu beitragen, mühsame Aufgaben zu bewältigen, die die moderne Medizin überfordern, und Ärzte in die Lage versetzen, sich wieder auf die Behandlung menschlicher Patienten zu konzentrieren.“
Während wir abwarten, wie sich diese junge Technologie entwickelt und welche Auswirkungen sie auf die Öffentlichkeit hat, argumentierte Munuera: „Das muss man verstehen.“ [ChatGPT] ist kein medizinisches Hilfsmittel und es gibt keinen Arzt, der die Richtigkeit der Antwort bestätigen kann [the chatbot gives]. Man muss umsichtig sein und die Grenzen verstehen.“ Zusammenfassend sagte Ibeas: „Das System ist gut, robust, positiv und es ist die Zukunft, aber wie jedes Werkzeug muss man wissen, wie man es nutzt, damit es nicht zur Waffe wird.“
Melden Sie sich an für Unser wöchentlicher Newsletter um mehr englischsprachige Berichterstattung von der EL PAÍS USA Edition zu erhalten