Bildnachweis: FAMILY STOCK/Adobe Stock

Als Assistenzarzt für Augenheilkunde im vierten Jahr an der Emory University School of Medicine gehört zu Riley Lyons‘ Hauptaufgabe die Triage: Wenn ein Patient mit einer Augenbeschwerde eintrifft, muss Lyons sofort die Dringlichkeit beurteilen.

Er stellt oft fest, dass sich Patienten bereits an „Dr. google.“ Online, so Lyons, würden sie wahrscheinlich feststellen, dass „jede Menge schrecklicher Dinge passieren könnten, basierend auf den Symptomen, die sie erleben.“

Als also zwei Augenarztkollegen von Lyons bei Emory zu ihm kamen und ihm vorschlugen, die Genauigkeit des KI-Chatbots chatgpt bei der Diagnose von Augenbeschwerden zu bewerten, ergriff er die Chance.

Im Juni berichteten Lyons und seine Kollegen in medRxiv, einem Online-Verlag für Preprints aus den Gesundheitswissenschaften, dass ChatGPT im Vergleich ganz gut an menschliche Ärzte, die die gleichen Symptome überprüften – und weitaus bessere Ergebnisse erzielten als der Symptomprüfer auf der beliebten Gesundheitswebsite WebMD. Und trotz des vielfach publizierten „Halluzinations“-Problems, das ChatGPT bekanntermaßen heimsucht – seiner Angewohnheit, gelegentlich völlig falsche Aussagen zu machen – berichtete die Emory-Studie, dass die neueste Version von ChatGPT keine „grob ungenauen“ Aussagen machte, wenn man sie mit einem normalen Blickwinkel betrachtet Beschwerden.

Die relative Leistungsfähigkeit von ChatGPT, das im November 2022 auf den Markt kam, war eine Überraschung für Lyons und seine Co-Autoren. Die künstliche Intelligenz-Engine „ist definitiv eine Verbesserung im Vergleich dazu, einfach etwas in eine Google-Suchleiste einzugeben und zu sehen, was man findet“, sagte Co-Autor Nieraj Jain, Assistenzprofessor am Emory Eye Center, der sich auf vitreoretinale Chirurgie und Erkrankungen spezialisiert hat.

Die Ergebnisse verdeutlichen jedoch eine Herausforderung, vor der die Gesundheitsbranche steht, wenn sie die Chancen und Fallstricke der generativen KI, der von ChatGPT verwendeten Art künstlicher Intelligenz, bewertet: Die Genauigkeit der von Chatbots bereitgestellten medizinischen Informationen stellt möglicherweise eine Verbesserung gegenüber Dr. Google dar, aber sie ist vorhanden Es gibt immer noch viele Fragen dazu, wie diese neue Technologie in Gesundheitssysteme integriert werden kann, wobei dieselben Sicherheitsvorkehrungen getroffen werden müssen, die in der Vergangenheit bei der Einführung neuer Medikamente oder medizinischer Geräte angewendet wurden.

Siehe auch  Das chinesische Unternehmen Baidu gibt an, dass seine neue KI ChatGPT bei einigen Kennzahlen übertrifft

Die reibungslose Syntax, der autoritäre Ton und die Geschicklichkeit der generativen KI haben außerordentliche Aufmerksamkeit in allen Bereichen der Gesellschaft auf sich gezogen, wobei einige ihre zukünftigen Auswirkungen mit denen des Internets selbst vergleichen. Im Gesundheitswesen arbeiten Unternehmen fieberhaft an der Implementierung generativer KI in Bereichen wie Radiologie und Krankenakten.

Wenn es um Verbraucher-Chatbots geht, ist jedoch immer noch Vorsicht geboten, auch wenn die Technologie bereits weit verbreitet ist – und besser als viele Alternativen. Viele Ärzte glauben, dass KI-basierte medizinische Instrumente einem Zulassungsprozess ähnlich dem FDA-Regime für Medikamente unterzogen werden sollten, aber das würde noch Jahre dauern. Es ist unklar, wie eine solche Regelung auf Allzweck-KIs wie ChatGPT angewendet werden könnte.

„Es steht außer Frage, dass wir Probleme mit dem Zugang zur Gesundheitsversorgung haben, und ob es eine gute Idee ist, ChatGPT einzusetzen, um die Lücken beim Zugang zu schließen oder zu schließen, es wird passieren und es passiert bereits“, sagte Jain. „Die Leute haben seinen Nutzen bereits entdeckt. Wir müssen also die potenziellen Vorteile und Fallstricke verstehen.“

Die Emory-Studie ist nicht die Einzige, die die relative Genauigkeit der neuen Generation von KI-Chatbots bestätigt. A Bericht veröffentlicht in Nature Anfang Juli sagte eine von Google-Informatikern geleitete Gruppe, dass die Antworten von Med-PaLM, einem KI-Chatbot, den das Unternehmen speziell für medizinische Zwecke entwickelt hat, „im Vergleich zu den Antworten von Ärzten günstig sind“.

KI hat möglicherweise auch bessere Verhaltensweisen am Krankenbett. In einer anderen Studie, die im April von Forschern der University of California-San Diego und anderen Institutionen veröffentlicht wurde, wurde sogar festgestellt, dass Angehörige der Gesundheitsberufe ChatGPT-Antworten als einfühlsamer bewerteten als Antworten menschlicher Ärzte.

Tatsächlich erforschen eine Reihe von Unternehmen, wie Chatbots für die Therapie der psychischen Gesundheit eingesetzt werden könnten, und einige Investoren der Unternehmen wetten, dass gesunde Menschen auch Spaß daran haben könnten, mit einem KI-„Freund“ zu chatten und sogar Kontakte zu knüpfen. Das Unternehmen hinter Replika, einem der fortschrittlichsten seines Genres, vermarktet seinen Chatbot als „Der KI-Begleiter, der sich kümmert.“ Immer da, um zuzuhören und zu reden. Immer auf deiner Seite.“

Siehe auch  Über die Hälfte der technischen HR-Mitarbeiter nutzt ChatGPT für alle Arten von Arbeiten: Bericht, ET CIO

„Wir brauchen Ärzte, die erkennen, dass diese neuen Tools von Dauer sind und sowohl Ärzten als auch Patienten neue Möglichkeiten bieten“, sagte James Benoit, ein KI-Berater. Als Postdoktorand im Bereich Krankenpflege an der University of Alberta in Kanada veröffentlichte er im Februar eine Studie, in der er berichtete, dass ChatGPT deutlich übertroffen Online-Symptomprüfer bei der Bewertung einer Reihe medizinischer Szenarien. „Sie sind zum jetzigen Zeitpunkt genau genug, um eine Überlegung wert zu sein“, sagte er.

Dennoch sind selbst die Forscher, die die relative Zuverlässigkeit von ChatGPT nachgewiesen haben, vorsichtig, wenn es darum geht, Patienten zu empfehlen, ihr volles Vertrauen in den aktuellen Stand der KI zu setzen. Für viele medizinische Fachkräfte sind KI-Chatbots eine Einladung zum Ärger: Sie führen eine Vielzahl von Problemen im Zusammenhang mit Datenschutz, Sicherheit, Voreingenommenheit, Haftung, Transparenz und dem derzeitigen Fehlen einer behördlichen Aufsicht an.

Der Vorschlag, dass KI angenommen werden sollte, weil sie eine geringfügige Verbesserung gegenüber Dr. Google darstellt, ist nicht überzeugend, sagen diese Kritiker.

„Das ist eine etwas enttäuschende Messlatte, nicht wahr?“ sagte Mason Marks, ein Professor und MD, der sich auf Gesundheitsrecht an der Florida State University spezialisiert hat. Er hat kürzlich einen geschrieben Meinungsstück über KI-Chatbots und Datenschutz im Journal of the American Medical Association. „Ich weiß nicht, wie hilfreich es ist, zu sagen: ‚Nun, lasst uns einfach diese Konversations-KI als Pflaster einsetzen, um diese tieferen systemischen Probleme auszugleichen‘“, sagte er zu KFF Health News.

Die größte Gefahr besteht seiner Ansicht nach in der Wahrscheinlichkeit, dass Marktanreize zu KI-Schnittstellen führen, die Patienten zu bestimmten Medikamenten oder medizinischen Dienstleistungen leiten sollen. „Unternehmen möchten möglicherweise ein bestimmtes Produkt einem anderen vorziehen“, sagte Marks. „Das Potenzial der Ausbeutung von Menschen und der Kommerzialisierung von Daten ist beispiellos.“

Auch OpenAI, das Unternehmen, das ChatGPT entwickelt hat, mahnt zur Vorsicht.

Siehe auch  ChatGPT riet Nicolas Winding Refn, psychologische Hilfe anzufordern

„Die Modelle von OpenAI sind nicht darauf abgestimmt, medizinische Informationen bereitzustellen“, sagte ein Unternehmenssprecher. „Sie sollten unsere Modelle niemals verwenden, um Diagnose- oder Behandlungsdienste für schwerwiegende Erkrankungen bereitzustellen.“

John Ayers, ein Computerepidemiologe und Hauptautor der UCSD-Studie, sagte, dass der Fokus wie bei anderen medizinischen Eingriffen auf den Patientenergebnissen liegen sollte.

„Wenn die Regulierungsbehörden sagen würden, dass man, wenn man Patientendienstleistungen mithilfe eines Chatbots erbringen möchte, nachweisen muss, dass Chatbots die Patientenergebnisse verbessern, dann würden morgen randomisierte kontrollierte Studien für eine Vielzahl von Ergebnissen registriert“, sagte Ayers.

Er würde sich eine dringlichere Haltung der Regulierungsbehörden wünschen.

„Hundert Millionen Menschen haben ChatGPT auf ihrem Telefon“, sagte Ayers, „und stellen gerade Fragen.“ Die Leute werden Chatbots mit oder ohne uns nutzen.“

Derzeit gibt es jedoch nur wenige Anzeichen dafür, dass eine gründliche Prüfung von KIs auf Sicherheit und Wirksamkeit unmittelbar bevorsteht. Im MaiRobert Califf, der Kommissar der FDA, beschrieb „die Regulierung großer Sprachmodelle als entscheidend für unsere Zukunft“, aber abgesehen von der Empfehlung, dass die Regulierungsbehörden „flexibel“ vorgehen sollten, gab er nur wenige Details bekannt.

In der Zwischenzeit ist das Rennen eröffnet. Im Juli berichtete das Wall Street Journal, dass die Mayo Clinic dies tat Partnerschaft mit Google den Chatbot Med-PaLM 2 in sein System zu integrieren. Im Juni, WebMD angekündigt Es ging eine Partnerschaft mit HIA Technologies Inc., einem Startup mit Sitz in Pasadena, Kalifornien, ein, um interaktive „digitale Gesundheitsassistenten“ bereitzustellen. Und die laufende Integration von KI sowohl in Microsofts Bing- als auch in die Google-Suche deutet darauf hin, dass Dr. Google bereits auf dem besten Weg ist, durch Dr. Chatbot ersetzt zu werden.

KFF-Gesundheitsnachrichten ist eine nationale Nachrichtenredaktion, die ausführlichen Journalismus zu Gesundheitsthemen produziert und eines der Kernbetriebsprogramme der KFF ist – eine unabhängige Quelle für gesundheitspolitische Forschung, Umfragen und Journalismus. Lerne mehr über KFF.

Copyright 2023 KFF Health News. Alle Rechte vorbehalten. Dieses Material darf nicht veröffentlicht, ausgestrahlt, umgeschrieben oder weitergegeben werden.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein