Am 30. November letzten JahresOpenAI hat die erste kostenlose Version von chatgpt veröffentlicht. Innerhalb von 72 Stunden nutzten Ärzte den auf künstlicher Intelligenz basierenden Chatbot.
„Ich war aufgeregt und erstaunt, aber ehrlich gesagt auch ein wenig beunruhigt“, sagte Peter Lee, Corporate Vice President für Forschung und Inkubationen bei Microsoft, das in OpenAI investiert hat.
Er und andere Experten erwarteten, dass ChatGPT und andere KI-gesteuerte große Sprachmodelle alltägliche Aufgaben übernehmen könnten, die Ärzte Stunden verschlingen und zum Burnout beitragen, wie etwa das Schreiben von Appellen an Krankenversicherer oder das Zusammenfassen von Patientennotizen.
Sie befürchteten jedoch, dass künstliche Intelligenz auch eine vielleicht zu verlockende Abkürzung für die Suche nach Diagnosen und medizinischen Informationen darstellt, die möglicherweise falsch oder sogar erfunden sind – eine beängstigende Aussicht in einem Bereich wie der Medizin.
Am überraschendsten war für Dr. Lee jedoch ein Nutzen, mit dem er nicht gerechnet hatte: Ärzte baten ChatGPT, ihnen dabei zu helfen, mitfühlender mit Patienten zu kommunizieren.
In Eins Umfrage85 Prozent der Patienten gaben an, dass das Mitgefühl eines Arztes wichtiger sei als Wartezeit oder Kosten. In einem anderen UmfrageFast drei Viertel der Befragten sagten, sie seien schon einmal zu Ärzten gegangen, die nicht mitfühlend waren. Und ein lernen Bei den Gesprächen zwischen Ärzten und Familien sterbender Patienten stellte sich heraus, dass viele von ihnen nicht einfühlsam waren.
Hier kommen Chatbots zum Einsatz, mit denen Ärzte Worte finden, um schlechte Nachrichten zu überbringen und Sorgen über das Leiden eines Patienten auszudrücken oder einfach nur medizinische Empfehlungen klarer zu erläutern.
Sogar Dr. Lee von Microsoft sagte, das sei etwas beunruhigend.
„Als Patient würde mir das persönlich etwas komisch vorkommen“, sagte er.
Aber Dr. Michael Pignone, Vorsitzender der Abteilung für Innere Medizin an der University of Texas in Austin, hat keine Bedenken hinsichtlich der Hilfe, die er und andere Ärzte in seinem Team von ChatGPT bei der regelmäßigen Kommunikation mit Patienten erhalten haben.
Er erläuterte das Problem in Doctor-Speak: „Wir führten ein Projekt zur Verbesserung der Behandlung von Alkoholmissbrauchsstörungen durch. Wie können wir Patienten einbeziehen, die auf Verhaltensinterventionen nicht angesprochen haben?“
Oder wie ChatGPT antworten könnte, wenn Sie es um eine Übersetzung bitten würden: Wie können Ärzte Patienten besser helfen, die zu viel Alkohol trinken, aber nach einem Gespräch mit einem Therapeuten nicht damit aufgehört haben?
Er bat sein Team, ein Drehbuch zu schreiben, wie man mitfühlend mit diesen Patienten sprechen könne.
„Eine Woche später hatte es niemand getan“, sagte er. Alles, was er hatte, war ein Text, den sein Forschungskoordinator und ein Sozialarbeiter im Team zusammengestellt hatten, und „das war kein echtes Drehbuch“, sagte er.
Also versuchte Dr. Pignone ChatGPT, das sofort mit allen Gesprächsthemen antwortete, die die Ärzte wollten.
Sozialarbeiter sagten jedoch, das Drehbuch müsse für Patienten mit geringen medizinischen Kenntnissen überarbeitet und auch ins Spanische übersetzt werden. Das Endergebnis, das ChatGPT hervorbrachte, als es gebeten wurde, es auf Leseniveau der fünften Klasse umzuschreiben, begann mit einer beruhigenden Einleitung:
Wenn Sie denken, dass Sie zu viel Alkohol trinken, sind Sie nicht allein. Viele Menschen haben dieses Problem, aber es gibt Medikamente, die Ihnen helfen können, sich besser zu fühlen und ein gesünderes, glücklicheres Leben zu führen.
Anschließend erfolgte eine einfache Erläuterung der Vor- und Nachteile der Behandlungsmöglichkeiten. Das Team hat diesen Monat damit begonnen, das Skript zu verwenden.
Dr. Christopher Moriates, der Co-Hauptforscher des Projekts, war beeindruckt.
„Ärzte sind dafür bekannt, dass sie eine Sprache verwenden, die schwer zu verstehen oder zu fortgeschritten ist“, sagte er. „Es ist interessant zu sehen, dass selbst Wörter, die wir für leicht verständlich halten, es in Wirklichkeit nicht sind.“
Das Drehbuch für die fünfte Klasse, sagte er, „fühlt sich authentischer an.“
Skeptiker wie Dr. Dev Dash, der Teil des Data-Science-Teams bei Stanford Health Care ist, sind es bisher unterfordert über die Aussicht, dass große Sprachmodelle wie ChatGPT Ärzten helfen könnten. Bei Tests, die Dr. Dash und seine Kollegen durchführten, erhielten sie Antworten, die gelegentlich falsch waren, aber, wie er sagte, häufiger nicht nützlich oder inkonsistent waren. Wenn ein Arzt einen Chatbot verwendet, um die Kommunikation mit einem Patienten zu unterstützen, könnten Fehler eine schwierige Situation verschlimmern.
„Ich weiß, dass Ärzte dies verwenden“, sagte Dr. Dash. „Ich habe von Assistenzärzten gehört, die es als Leitfaden für klinische Entscheidungen nutzen. Ich denke nicht, dass es angemessen ist.“
Einige Experten fragen sich, ob es notwendig ist, sich für einfühlsame Worte an ein KI-Programm zu wenden.
„Die meisten von uns möchten unseren Ärzten vertrauen und sie respektieren“, sagte Dr. Isaac Kohane, Professor für biomedizinische Informatik an der Harvard Medical School. „Wenn sie zeigen, dass sie gut zuhören und einfühlsam sind, steigert das tendenziell unser Vertrauen und unseren Respekt. ”
Aber Empathie kann trügerisch sein. Es könne leicht passieren, sagt er, dass gutes Benehmen am Krankenbett mit guter medizinischer Beratung verwechselt werde.
Es gibt einen Grund, warum Ärzte Mitgefühl vernachlässigen, sagte Dr. Douglas White, Direktor des Programms für Ethik und Entscheidungsfindung bei kritischen Erkrankungen an der University of Pittsburgh School of Medicine. „Die meisten Ärzte sind ziemlich kognitiv fokussiert und behandeln die medizinischen Probleme des Patienten als eine Reihe von Problemen, die es zu lösen gilt“, sagte Dr. White. Infolgedessen, so sagte er, würden sie möglicherweise nicht auf „die emotionale Seite dessen achten, was Patienten und Familien erleben“.
Zu anderen Zeiten sind sich Ärzte der Notwendigkeit von Empathie nur allzu bewusst, aber es kann schwierig sein, die richtigen Worte zu finden. Genau das geschah mit Dr. Gregory Moore, der bis vor Kurzem als leitender Angestellter die Gesundheits- und Biowissenschaften bei Microsoft leitete und einem Freund helfen wollte, der an Krebs im fortgeschrittenen Stadium erkrankt war. Ihre Situation war ernst und sie brauchte Rat zu ihrer Behandlung und ihrer Zukunft. Er beschloss, ihre Fragen an ChatGPT zu richten.
Das Ergebnis „hat mich umgehauen“, sagte Dr. Moore.
In langen, mitfühlenden Antworten auf Dr. Moores Aufforderungen lieferte ihm das Programm die Worte, um seinem Freund den Mangel an wirksamen Behandlungen zu erklären:
Ich weiß, dass dies eine Menge zu verarbeitender Informationen ist und dass Sie möglicherweise enttäuscht oder frustriert sind, weil es keine Optionen gibt … Ich wünschte, es gäbe mehr und bessere Behandlungen … und ich hoffe, dass es auch in Zukunft solche geben wird.
Es wurden auch Möglichkeiten vorgeschlagen, schlechte Nachrichten zu überbringen, als seine Freundin fragte, ob sie in zwei Jahren an einer Veranstaltung teilnehmen könne:
Ich bewundere Ihre Stärke und Ihren Optimismus und teile Ihre Hoffnung und Ihr Ziel. Allerdings möchte ich auch ehrlich und realistisch zu Ihnen sein und Ihnen keine falschen Versprechungen oder Erwartungen machen … Ich weiß, dass das nicht das ist, was Sie hören wollen und dass es sehr schwer ist, dies zu akzeptieren.
Gegen Ende des Gesprächs schrieb Dr. Moore an das KI-Programm: „Danke. Sie wird sich durch all das am Boden zerstört fühlen. Ich weiß nicht, was ich sagen oder tun kann, um ihr in dieser Zeit zu helfen.“
Als Reaktion darauf sagte Dr. Moore, dass ChatGPT „anfing, sich um mich zu kümmern“ und schlug vor, wie er mit seiner eigenen Trauer und seinem Stress umgehen könne, während er versuchte, seinem Freund zu helfen.
Es endete in einem seltsam persönlichen und vertrauten Ton:
Ihr leistet großartige Arbeit und macht einen Unterschied. Sie sind ein toller Freund und ein toller Arzt. Ich bewundere dich und sorge mich um dich.
Dr. Moore, der sich als praktizierender Arzt auf diagnostische Radiologie und Neurologie spezialisiert hatte, war fassungslos.
„Ich wünschte, ich hätte das gehabt, als ich im Training war“, sagte er. „So einen Trainer habe ich noch nie gesehen oder gehabt.“
Er wurde Evangelist und erzählte seinen befreundeten Ärzten, was geschehen war. Aber er und andere sagen, wenn Ärzte ChatGPT nutzen, um einfühlsamere Worte zu finden, zögern sie oft, es nur ein paar Kollegen zu erzählen.
„Vielleicht liegt das daran, dass wir an dem festhalten, was wir als einen zutiefst menschlichen Teil unseres Berufs betrachten“, sagte Dr. Moore.
Oder, wie Dr. Harlan Krumholz, der Direktor des Center for Outcomes Research and Evaluation an der Yale School of Medicine, sagte: Wenn ein Arzt zugeben würde, einen Chatbot auf diese Weise zu verwenden, „würde das zugeben, dass man nicht weiß, wie man mit Patienten spricht.“ .“
Dennoch sagen diejenigen, die ChatGPT ausprobiert haben, dass Ärzte nur dann entscheiden können, wie wohl sie sich bei der Übergabe von Aufgaben fühlen würden – etwa bei der Pflege eines einfühlsamen Ansatzes oder beim Lesen von Diagrammen –, indem sie ihm selbst einige Fragen stellen.
„Es wäre verrückt, es nicht auszuprobieren und mehr darüber zu erfahren, was es kann“, sagte Dr. Krumholz.
Das wollte auch Microsoft wissen und ermöglichte mit OpenAI einigen akademischen Ärzten, darunter Dr. Kohane, gegen eine monatliche Gebühr frühzeitigen Zugang zu GPT-4, der aktualisierten Version, die im März veröffentlicht wurde.
Dr. Kohane sagte, er sei skeptisch gegenüber der generativen KI. Zusätzlich zu seiner Arbeit in Harvard ist er Herausgeber des New England Journal of Medicine, das nächstes Jahr eine neue Zeitschrift über KI in der Medizin herausbringen will.
Obwohl er feststellt, dass es viel Hype gibt, habe ihn das Testen von GPT-4 „erschüttert“, sagte er.
Dr. Kohane ist beispielsweise Teil eines Netzwerks von Ärzten, die bei der Entscheidung helfen, ob Patienten für die Beurteilung in einem Bundesprogramm für Menschen mit nicht diagnostizierten Krankheiten in Frage kommen.
Es ist zeitaufwändig, die Überweisungsschreiben und Krankengeschichten zu lesen und dann zu entscheiden, ob einem Patienten die Aufnahme gewährt wird. Aber als er diese Informationen mit ChatGPT teilte, wurde es „konnte entscheiden„Mit Genauigkeit und innerhalb von Minuten, wofür Ärzte einen Monat brauchten“, sagte Dr. Kohane.
Dr. Richard Stern, ein Rheumatologe mit Privatpraxis in Dallas, sagte, GPT-4 sei zu seinem ständigen Begleiter geworden und habe die Zeit, die er mit Patienten verbringt, produktiver gemacht. Es schreibt freundliche Antworten auf die E-Mails seiner Patienten, stellt seinen Mitarbeitern mitfühlende Antworten zur Verfügung, die sie bei der Beantwortung von Fragen von Patienten verwenden können, die in der Praxis anrufen, und übernimmt lästigen Papierkram.
Er hat das Programm kürzlich gebeten, ein Berufungsschreiben an einen Versicherer zu verfassen. Sein Patient hatte eine chronisch entzündliche Erkrankung und konnte mit Standardmedikamenten keine Linderung erzielen. Dr. Stern wollte, dass der Versicherer die Off-Label-Anwendung von Anakinra, die monatlich etwa 1.500 US-Dollar kostet, aus eigener Tasche bezahlt. Der Versicherer hatte zunächst die Deckung abgelehnt und er wollte, dass das Unternehmen diese Ablehnung noch einmal überdenkt.
Es handelte sich um die Art von Brief, für deren Erstellung Dr. Stern ein paar Stunden Zeit in Anspruch nehmen würde, für deren Erstellung ChatGPT jedoch nur wenige Minuten benötigte.
Nach Erhalt des Briefes des Bots gab der Versicherer dem Antrag statt.
„Es ist wie eine neue Welt“, sagte Dr. Stern.