Wenn Sie sich mit widersprüchlichen Gefühlen darüber auseinandersetzen, was ChatGPT und ähnliche Chatbots mit künstlicher Intelligenz für das Gesundheitswesen bedeuten werden, sind Sie nicht allein. Der Präsident der National Academy of Medicine, ein Mann, dessen klinische und wissenschaftliche Leistungen ihn an die Spitze seines Berufsstandes stellen, tut in etwa das Gleiche.

„OK, als Nicht-KI-Experte sollte ich aufgeregt sein, ich sollte Angst haben.“ NAM-Präsident Victor Dzau sagte den Teilnehmern einer Akademie: „Problemrahmen-Gespräch” konzentrierte sich auf generative KI und große Sprachmodelle. „Aber was werden wir dagegen tun?“

Nachfolgend sehen wir, was ChatGPT empfiehlt. Aber „aufgeregt“ und „ängstlich“ scheint mir genau die richtige Antwort zu sein. Obwohl keiner der KI-Experten in einem eintägigen Treffen, das die KI-Landschaft und ihre medizinischen, öffentlichen Gesundheits- und politischen Auswirkungen untersuchte, so offenherzig war wie Dzau, war das Schwanken zwischen schrecklich und erschreckend ein ständiger Unterton.

Es war schwer, nicht sowohl aufgeregt als auch verängstigt zu sein, wenn man zum Beispiel Peter Lee, Corporate Vice President für Forschung und Innovation bei Microsoft, zuhörte. Lee war eng an der Entwicklung von ChatGPT beteiligt, und das hat er auch getan ausführlich geschrieben und gesprochen über das Bekannte und das Unbekannte.

„Das Wichtigste, was man über generative KI verstehen muss [tools] ist, dass es sich nicht um Computer handelt“, sagte Lee, „sondern um eine neue Art von Argumentationswerkzeug, dessen Verwendung wir als medizinische Gemeinschaft zu verstehen versuchen.“

Siehe auch  Infobip bringt Experiences ein neues Produkt mit ChatGPT-Technologie auf den Markt, um das Kundenerlebnis zu revolutionieren

Dann gab es diese Einschätzung von Lees Kollegen Sebastien Bubeck, einem Mathematiker und leitenden Forschungsmanager bei Microsoft: „Ich denke, GPT-4 hat sich einen gesunden Menschenverstand angeeignet“, sagte Bubeck, „und ich kann mir eine Zukunft vorstellen, in der es ein Modell dafür geben wird.“ läuft auf Ihrem Telefon.“

Und diese verblüffende Vorhersage von Vincent Liu, einem Arzt, Informatiker und leitenden Wissenschaftler am Kaiser Permanente Northern California: „Wir müssen als Kollege an die Zukunft der KI denken“, sagte Liu. „Wir müssen es als eine neue Form der Intelligenz akzeptieren.“

Unterdessen fügte er hinzu, dass die Überschneidung von KI mit Genomik und Nanomaterialien „tatsächlich die Biologie unserer Menschheit verändern könnte“.

Schon aufgeregt und/oder verängstigt?

Ein Beispiel dafür, wie schnell sich LLMs weiterentwickelt haben, ist Med-PALM2 von google erreichte bei der ärztlichen Approbationsprüfung das Niveau menschlicher Experten. Doch bevor „Dr. „Google“ oder „Chat-GPT, MD“ können vertrauenswürdige klinische Partner werden, zahlreiche Probleme müssen noch gelöst werden.

Als das Department of Veterans Affairs beispielsweise generative KI einsetzte, um Covid zu verfolgen, stellte es fest, dass „man ständig überwachen und lernen muss, um sicherzustellen, dass das Modell weiterhin funktioniert“, sagte Gil Alterovitz, Direktor für künstliche Intelligenz der VA. Andere haben festgestellt, dass Sie möglicherweise eine andere Antwort erhalten, wenn Sie einem LLM nur wenige Sekunden später dieselbe Frage stellen.

Der sichere Weg scheint derzeit darin zu bestehen, sich mit dem Alltäglichen zufrieden zu geben – zum Beispiel die Organisation der in einer langen und verwirrenden Krankenakte enthaltenen Informationen – auch wenn eine Vielzahl bahnbrechender Möglichkeiten auf Sie warten. Ein vielversprechender Bereich ist die Nutzung der Sprachfähigkeit von KI-gestützten Chatbots wie ChatGPT, um den gleichberechtigten Zugang zur psychischen Gesundheitsversorgung zu erweitern.

Siehe auch  Weltnachrichten 27. September: ChatGPT ist im Begriff, „zuhören und sehen“ zu lernen; Die Vereinten Nationen befürchten einen nuklearen Wettlauf

Dzau bemerkte: „Wir brauchen Klarheit darüber, was noch nicht bereit ist und was mit der richtigen Anleitung und menschlichem Eingreifen bereit ist.“

Seit seiner Veröffentlichung im November 2022 wurde ChatGPT mehr als 10 Milliarden Mal aufgerufen. Bisher besteht jedoch keine Einigkeit darüber, wie die Unternehmensentwickler von LLMs mit den Gesundheitssystemen zusammenarbeiten können, die über die erforderlichen Patientendaten verfügen, um zu untersuchen, wie Anwendungen in der realen Welt funktionieren könnten. Wichtig ist auch, dass es keinen Mechanismus gibt, um den Input einzelner Ärzte und Patienten systematisch in den Entwicklungsprozess einzubeziehen.

Forscher müssen „eine Reihe gemeinsamer Fragen entwickeln, die wir bei der Bewertung der Anträge stellen und beantworten sollten“, sagte Philip Payne, Chefdatenwissenschaftler an der Washington University School of Medicine.

Nigam Shaw, Chefdatenwissenschaftler bei Stanford Healthcare, stimmt zu: „Wir müssen uns auf die Definition und Überprüfung der Vorteile konzentrieren.“ Als Gemeinschaft sind wir immer noch dabei, das herauszufinden.“

„Wir verstehen noch nicht, wie wir die Daten verfeinern können, um zu verstehen, was tatsächlich dazu führt, dass die Antworten so sind“, räumte Bubeck von Microsoft ein.

Da es sich bei diesem Treffen um praktische Maßnahmen für die Zukunft handelte, war niemand unhöflich genug, die offensichtliche Frage zu stellen: „Sie haben eine radikal neue, nichtmenschliche Intelligenz entfesselt, ohne zu verstehen, wie sie funktioniert?“ Könnten Sie uns mitteilen, welche menschliche Vernunft das verursacht hat?“

Es überrascht nicht, dass die Bundesregulierungsbehörden gezwungen sind, aufzuholen. Als Lee Fleisher, bis vor Kurzem Chefarzt der Centers for Medicare & Medicaid Services, fragte: „Wo ist die vertrauenswürdige nationale Ressource, die sich mit dem Einsatz von KI befasst?“, gab es keine Antwort.

Siehe auch  Starfield erhält die fantastische Gameplay-Enthüllung, auf die Sie gewartet haben

LLMs und generative KI, bestätigte Troy Trazbaz, Leiter der Food and Drug Administration Kompetenzzentrum für digitale GesundheitSie seien „ein anderes Paradigma, das uns alle dazu drängt, anders zu denken.“ Er schlug vor, dass die FDA möglicherweise neue rechtliche Befugnisse benötigt, um Software zu überwachen, die sich nach ihrer Zulassung für die Verwendung in einem Produkt erheblich ändern und weiterentwickeln könnte.

Eine größere Herausforderung besteht laut Thomas Maddux, einem Kardiologen, der das digitale Gesundheits- und Innovationsprogramm bei BJC HealthCare leitet, darin, sicherzustellen, dass wir KI nicht unabsichtlich mit unseren eigenen Vorurteilen infizieren. „Da KI letztendlich ein Spiegelbild von uns und all unseren Vorurteilen ist, wie können wir der KI und letztendlich uns selbst dabei helfen, in der von uns angebotenen Pflege gerechter zu sein?“ Maddux forderte die Gruppe heraus.

Die NAM hat eine Antwort: „Sie bauen ein lernendes Gesundheitssystem auf.“ Das gilt auch für ChatGPT. Als ich Maddux‘ Frage an ChatGPT-3.5 (die kostenlose Version) stellte und als Antworttyp „Präzise“ wählte, lieferte ChatGPT schnell einen Fünf-Punkte-Plan mit Schwerpunkt auf Datenvielfalt; Vielfalt in den Menschen; Validierung; Governance-Struktur; und Transparenz.

Sehen? Es gibt einige Anwendungen von ChatGPT im Gesundheitswesen, bei denen Sie nicht im Geringsten aufgeregt oder verängstigt sind.

Folge mir auf Twitter. Kasse Mein Webseite oder einige meiner anderen Arbeiten Hier.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein