- Ein Notarzt sagt, er habe chatgpt verwendet, um seine Kommunikation mit Dutzenden von Patienten zu verbessern.
- Einmal half es ihm, einen nervösen Patienten zu beruhigen, indem er sich eine kreative medizinische Metapher einfallen ließ.
- „Betrachten Sie es als den brillantesten, talentiertesten und oft betrunkensten Praktikanten, den Sie sich vorstellen können“, sagte er.
Dr. Joshua Tamayo-Sarver ist seit fast 14 Jahren Notarzt. Aber manchmal fällt es ihm immer noch schwer, die richtigen Worte zu finden, um seinen Patienten komplizierte, nuancierte oder scheinbar besorgniserregende medizinische Probleme zu erklären.
Daher hat er kürzlich einen Teil dieser Konversationsarbeit an ChatGPT ausgelagert, mit guten Ergebnissen.
„Das sollte wahrscheinlich peinlich sein“, sagte Tamayo-Sarver, die auch Vizepräsidentin für Innovation bei zwei Gesundheitstechnologieunternehmen ist, gegenüber Insider. „Ich mache das schon so lange und habe noch nicht gelernt, mit meinen eigenen Patienten zu sprechen!“
Er schlägt nicht vor, dass Ärzte ChatGPT verwenden sollten zur Diagnose, oder wirklich für alle Aufgaben, die ein gewisses Maß an sorgfältigem Denken erfordern. Er sagt jedoch, dass es in bestimmten Situationen hilfreich sein kann, beispielsweise bei der Suche nach kreativen Wegen, mit Menschen zu kommunizieren.
„Betrachten Sie es als den brillantesten, talentiertesten und oft betrunkensten Praktikanten, den Sie sich vorstellen können“, sagte er. „All die Dinge, bei denen dieser Verifizierungs- und Due-Diligence-Schritt mehr Arbeit bedeutet, als es einfach selbst zu erledigen? Dann ist es nicht sinnvoll.“
ChatGPT ist großartig darin, kreative Lösungen zu entwickeln
Laut Tamayo-Sarver zeichnet sich ChatGPT in seiner eigenen Praxis vor allem durch kreative Kommunikation aus.
„Ich nutze es während der Schicht, wenn ich einem Patienten etwas mitteilen muss, und es gelingt mir nicht besonders gut“, sagte er.
Kürzlich kam eine Frau Mitte 40 in seine Notaufnahme. Beim Atmen hatte sie Schmerzen in der Brust und erste Blutuntersuchungen deuteten darauf hin, dass bei ihr ein Risiko für ein Blutgerinnsel bestehen könnte. Der einzig richtige Weg, dies sicher herauszufinden, bestehe darin, einen CT-Scan durchzuführen und ihre Brust abzubilden, erklärte der Arzt.
Plötzlich wurde die Frau sehr aufgeregt.
„Sie war so besorgt und flippte aus“, sagte Tamayo-Sarver. „Ich konnte es wirklich nicht auf eine beruhigende und beruhigende Weise erklären.“
Der Arzt wollte die Frau wissen lassen, dass dieser Test kein eindeutiges Zeichen dafür sei, dass mit ihr etwas nicht stimmte, sondern nur der nächste Schritt im Diagnoseprozess. Der Arzt ging zurück zum Arbeitsplatz seines Arztes und öffnete ChatGPT in der Hoffnung auf Hilfe.
Er tippte:
Erklären Sie einer ängstlichen Person, dass ihr D-Dimer [test] ist erhöht, also machen wir ein CT-Angiogramm des Brustkorbs, aber es sieht nicht so aus, als ob da etwas Schreckliches vor sich geht, wir müssen nur sicher sein.
ChatGPT spuckte einen Vorschlag zurück, den der Arzt für „in Ordnung“ hielt, aber er wollte etwas Klareres.
Erklären Sie es wie einem 6-Jährigentippte er.
Sofort spuckte der Chatbot eine neue Idee aus und verglich Blutgerinnsel mit Pflastern.
„Wenn Sie eine Schnittwunde haben und verhindern möchten, dass die Schnittwunde blutet, kleben Sie ein Pflaster darauf„“, erinnerte sich Tamayo-Sarver an die Worte von ChatGPT. „Im Inneren Ihres Körpers befinden sich Pflaster, die wir als Blutgerinnsel bezeichnen.“
Der Arzt kehrte in das Zimmer der Patientin zurück, „las im Grunde die Antwort von ChatGPT an sie, und sie fühlte sich viel besser.“
Es ist eine Strategie, die er, wie er sagt, „mindestens ein paar Dutzend Mal“ bei Patienten angewendet hat.
Er habe es sogar bei Schreibtischarbeiten ausprobiert, die „viel detaillierte Recherche und Destillation“ erforderten, sagte er, „aber dann werde ich es noch einmal überprüfen“ und mich dabei auf seine eigene Fachkenntnis verlassen, um zu überwachen, „wenn es nur ums Sein geht.“ betrunken.“
ChatGPT ist der Aufgabe immer noch nicht gewachsen, zu wissen, was es nicht weiß
Ein Grund dafür, dass ChatGPT so scheinbar „kreative“ Antworten auf Tamayo-Sarvers Fragen gibt, liegt zum Teil an der Art und Weise, wie die KI konzipiert ist – sie soll das nächstbeste Wort vorhersagen, auch wenn sie noch nie auf das von Ihnen konkrete Beispiel trainiert wurde. Ich gebe es.
Medizinische Experten bewerteten ChatGPT kürzlich als mitfühlender als viele echte Ärzte, vor allem weil es ein ausgezeichnetes Geschwätz ist.
Experten warnen jedoch davor, dass nur weil ChatGPT eine medizinische Untersuchung bestehen oder mit Patienten sprechen kann, dies nicht bedeutet, dass diese beeindruckenden Sprachlese- und Schreibfähigkeiten echtes Verständnis widerspiegeln. ChatGPT kann immer noch halluzinieren und Dinge erfinden, wenn es nicht die richtige Antwort weiß, und Dinge falsch macht, sogar Dinge, die es zuvor richtig berechnet hat.
In Zukunft sei es möglich, dass ChatGPT zu einem sorgfältigeren und wertvolleren klinischen Instrument werden könnte, sagte Tamayo-Sarver, möglicherweise mithilfe von andere Modelle des maschinellen Lernens Dies könnte es mit genaueren Erkenntnissen aus dem Gesundheitswesen kombinieren, etwa einer Art KI-Faktenprüfer.
Gary Marcus, Experte für künstliche Intelligenz, befürchtet, dass die Schutzmaßnahmen, die Tamayo-Sarver sich für ChatGPT im Gesundheitswesen vorstellt, nicht schnell genug eintreten werden, um schwere medizinische Katastrophen zu verhindern, sagte er dem Justizunterausschuss des US-Senats für Datenschutz, Technologie und Recht Dienstag.
„Medizinische Fehlinformationen sind etwas, worüber man sich wirklich Sorgen machen muss“, sagte er dem Unterausschuss. „Wir haben Systeme, die Dinge halluzinieren – sie werden medizinische Ratschläge halluzinieren. Einige der Ratschläge, die sie geben, sind gut, andere schlecht, wir brauchen eine wirklich strenge Regulierung.“