Während die Chatbots mitfühlend klingen mögen, brauchen wir Ärzte, die die Stimme der KI leiten, und Beamte wählen, die an die öffentliche Gesundheit glauben.
Führungskräfte sind sich einig, potenziellen KI-Risiken entgegenzutreten
Delegierte aus 28 Nationen, darunter den USA und China, haben vereinbart, zusammenzuarbeiten, um die potenziellen „katastrophalen“ Risiken einzudämmen, die durch die rasanten Fortschritte in der künstlichen Intelligenz entstehen. (2. November).
„Wir haben die Ergebnisse Ihrer Tests zurück und es scheint, dass es einige Zellen gibt, die sich nicht so verhalten, wie sie sollten. Was wir sehen, stimmt mit Krebs überein. Ich möchte Ihnen versichern, dass es völlig natürlich ist, schockiert oder verängstigt zu sein. Aber ich möchte auch, dass Sie wissen, dass Sie damit nicht allein sind.“
Als Krankenhausarzt muss ich Patienten fast täglich die schreckliche Nachricht überbringen, dass sie Krebs haben. Es ist nie ein einfaches Gespräch und es gibt kein festes Drehbuch, um dies sanft und einfühlsam zu führen. Ein Arzt mit guten Umgangsformen am Krankenbett kann die Diagnose ähnlich wie die Stimme in der Einleitung stellen; Dieses Mitgefühl wurde jedoch nicht von einem echten Menschen ausgesprochen, sondern von chatgpt-4, einer „künstlichen Intelligenz“, erzeugt.
Technologie und KI sind immer wichtiger Fortschritte in Bereichen, die ausschließlich von Menschen dominiert werden. Da die KI in die Feinheiten der menschlichen Gesundheit eindringt, müssen wir vorsichtig vorgehen und uns darauf verlassen, dass menschliche Wissenschaftler, Beamte des öffentlichen Gesundheitswesens und Ärzte unseren neuen mächtigen Freund anleiten, damit die Technologie nicht missverstanden, falsch angewendet oder missbraucht wird.
Werden KI und Roboter menschliche Ärzte ersetzen?
Arbeitnehmer in allen Bereichen lernen, KI in ihre Arbeit zu integrieren, und Ärzte bilden da keine Ausnahme. Ich habe gesehen, wie intelligente Ärzte auf KI zurückgreifen, um komplexe Patientensymptome zu analysieren, eine Liste potenzieller Diagnosen zu erstellen, Behandlungen zu verfeinern und versteckte Tumore in der Bildgebung zu finden.
Ich habe einem Fremden eine Niere gespendet. Für andere sollte es nicht so schwer sein, etwas zu geben.
So beängstigend das auch klingen mag, es gibt dafür einen Präzedenzfall – Studien beginnen zu zeigen, dass KI-Programme mit großen Sprachmodellen scheinbar mit dem Wissen menschlicher Ärzte vergleichbar sind. ChatGPT war in der Lage, die Multiple-Choice-Prüfungen zur medizinischen Zulassung in den USA zu bestehen dass Medizinstudenten vor jahrelanger Facharztausbildung absolvieren. Meine Kollegen in Stanford haben auch eine Studie veröffentlicht, die zeigt, dass ChatGPT sogar gut abschneidet und tatsächlich übertrifft Schüler bei Prüfungen mit komplexen offenen Fragen.
Über eine unglaubliche Wissensbasis hinaus hat die KI große Fortschritte bei Soft Skills wie dem Verhalten am Krankenbett gemacht. Eine Studie im Journal of the American Medical Association zeigte, dass ChatGPT erstellt wurde einfühlsamere Antworten auf Patientenfragen als menschliche Ärzte.
Wohin führt uns das? Werden Roboter und KI den Menschen am anderen Ende des Stethoskops ersetzen?
Diese Fragen sind möglicherweise nicht so abstrakt, wie wir denken, und solche Themen erreichen allmählich sogar die Ohren des Weißen Hauses. Im Oktober hat Präsident Joe Biden erließ eine Durchführungsverordnung zur Regulierung der KI in einer Reihe von Schlüsselbereichen, einschließlich der nationalen öffentlichen Gesundheit.
Wir brauchen Ärzte, die die Stimme der KI leiten
Auch Ärzte haben das Vordringen der KI in den medizinischen Bereich zur Kenntnis genommen. Mehrere besorgte Ärzte kamen zusammen, um das zu erstellen Ärztecharta zur KI als Leitfaden, um sicherzustellen, dass die Nutzung der Technologie patientenzentriert, sicher und gerecht bleibt.
Letzteres ist besonders wichtig, um die gesundheitlichen Ungleichheiten zwischen unterschiedlichen wirtschaftlichen und ethnischen Gruppen nicht zu verschärfen. Unkontrollierte KI hat manchmal zu einem Endprodukt an Reaktionen geführt Das kann man nur als rassistisch bezeichnen. Es wird eine kontinuierliche Anstrengung sein, sicherzustellen, dass die KI unserem hippokratischen Eid folgt.
KI-generierte Tricks: Künstliche Intelligenz schafft eine alternative Realität, in der man nicht einmal Tom Hanks trauen kann
Es obliegt uns in der medizinischen und öffentlichen Gesundheitsbranche, den Einsatz dieser neuen Technologie zum Nutzen und nicht zum Nachteil unserer Patienten und der Gemeinschaft insgesamt zu steuern. Dennoch müssen politische Entscheidungsträger und Machthaber den Rat unserer medizinischen Experten befolgen.
Seit Beginn der COVID-19-Pandemie haben wir gesehen, dass dies nicht immer der Fall ist und Fehlinformationen und Laien erheblich an Einfluss gewonnen haben. Als amerikanische Bürger müssen wir daran arbeiten, unsere Stimmen für die Wahl von Beamten einzusetzen, die „der Wissenschaft vertrauen“ und sich nicht so leicht von Fehlinformationen beeinflussen lassen.
Es wurde geschätzt, dass Hunderttausende Amerikaner kamen durch COVID-19 ums Leben von denen, die die Impfungen nicht erhalten haben. Viele Fälle können direkt mit dem Glauben an Fehlinformationen und dem Misstrauen gegenüber der medizinischen Gemeinschaft und der mRNA-Impfstofftechnologie in Verbindung gebracht werden. Wir können nicht den gleichen Fehler machen, wenn wir neuere KI-Technologie einführen und integrieren.
Während die Chatbots mitfühlend klingen mögen, brauchen wir Ärzte, die die Stimme der KI leiten – und Beamte wählen, die an die öffentliche Gesundheit glauben.
Dr. Thomas K. Lew ist klinischer Assistenzprofessor für Medizin an der Stanford University School of Medicine und Oberarzt für Krankenhausmedizin am Stanford Health Care Tri-Valley. Alle geäußerten Meinungen sind seine eigenen. Folgen Sie ihm auf X, ehemals Twitter: @ThomasLewMD