Das International Center for Genetic Disease (iCGD) ist eine Plattform zur Analyse von Patienten und gesunden Probanden aus der ganzen Welt und betreibt hauptsächlich Forschung zu Ätiologie, Pathologie, Prävention und Behandlung. Kürzlich lud iCGD Dr. Peter Lee, Vizepräsident für Forschung und Inkubationen bei Microsoft, als Gastredner ein, um eine Grundsatzrede zum Thema „Der Aufstieg der allgemeinen KI in der Medizin“ zu halten.
Ein wichtiger Meilenstein in der Entwicklung der allgemeinen KI
GPT-4 ist das neueste von OpenAI eingeführte Modell. Im Gegensatz zu seinem Vorgänger GPT-3.5 kann es nicht nur allgemeine kognitive Intelligenz erlangen, sondern kommt auch der Fähigkeit, komplexe Probleme zu verstehen, abzuleiten und darauf zu reagieren, einen Schritt näher. Das Ziel ist um menschliche Intelligenz zu simulieren und seinen Vorgänger zu übertreffen. GPT-3.5.
In seiner Rede erwähnte Peter, dass er hofft, die potenzielle Anwendung und Wirkung von GPT-4 im medizinischen Bereich untersuchen zu können, einschließlich der Verwendung bei medizinischen Untersuchungen, Patientenversorgung, medizinischer Ausbildung und klinischer Dokumentation, und erwähnte gleichzeitig dessen Einschränkungen und Herausforderungen. Etwa sechs Monate vor der Veröffentlichung von GPT-4 entdeckten Microsoft und OpenAI, dass dieses neue Sprachmodell in Bereichen wie der Medizin eingesetzt werden könnte, von denen der Mensch direkt profitieren könnte.
Was genau kann GPT-4 im medizinischen Bereich leisten?
Die Verwendung von Modellen für professionelle Zertifizierungsprüfungen ist in den letzten Jahren zum Standardmodus für das Training von KI geworden. Peter verwendet das Beispiel der United States Medical Licensing Examination (USMLE), der dreistufigen medizinischen Zulassungsprüfung in den Vereinigten Staaten. GPT-4 beantwortet Fragen nicht nur richtig, sondern zieht auch kausale Schlussfolgerungen, liefert Schlussfolgerungen für seine Antworten und erläutert die Gründe für die Eliminierung anderer Optionen bei Multiple-Choice-Tests.
Wissenschaftler der Human-Centered Artificial Intelligence (HAI) der Stanford University untersuchten typische medizinische Beratungssituationen und stellten fest, dass GPT-4 93 Prozent der Fragen genau beantworten konnte. Darüber hinaus erwähnte eine in JAMA Internal Medicine veröffentlichte Studie eines Teams um Dr. John W. Ayers vom Qualcomm Institute an der University of California San Diego (University of California San Diego) auch das Potenzial von KI im medizinischen Bereich. In der Studie, in der die Antworten von Ärzten und GPT-4 auf reale medizinische Fragen verglichen wurden, gaben 79 % der zugelassenen medizinischen Fachkräfte an, dass sie GPT-4 aufgrund von Qualität und Empathie den Ärzten vorziehen. Peter sagte: „Das ist unglaublich, denn für GPT-4 gibt es keine spezifische medizinische Ausbildung. Das GPT-Projekt konzentriert sich derzeit ausschließlich auf den Erwerb allgemeiner kognitiver Funktionen.“ Er wies darauf hin, dass die Ausbildung von GPT-4 nicht dazu dient, irgendein Spezialgebiet zu unterstützen, sondern Die Verwendung von GPT-4 wird zu einem Allzweck-Sprachmodell mit grundlegenden menschlichen kognitiven Funktionen.
In der Rede gab Peter ein fiktives Beispiel an, in dem er davon ausging, dass es einen virtuellen Patienten namens Kim gibt, und fragte GPT-4: „Was denkt und fühlt Kim wohl?“ GPT-4 wird kurz sagen, dass er nur An ist KI-Sprachmodell, das die Gefühle oder Gedanken einer Person nicht einschätzen kann. Gehen Sie dann auf die Details ein, weisen Sie darauf hin, warum Kim besorgt oder verängstigt sein könnte, und schlagen Sie vor, dass Kim vielleicht ein paar tröstende Worte braucht. Betreuer können dies auch bei alltäglichen Aktivitäten als nützlich empfinden, wie zum Beispiel „Wenn ich Kims Arzt wäre, was sollte ich ihr sagen, um Trost und Unterstützung zu spenden?“ GPT-4 kann auch Unterstützung und Ratschläge geben. Es kann Ärzten nicht nur helfen, mit ängstlichen oder verzweifelten Patienten zu kommunizieren, sondern auch ein tieferes Verständnis für die inneren Gedanken der Patienten gewinnen.
Laut Peter hat GPT-4 auch Potenzial für die medizinische Ausbildung. Bei der Ausbildung zum Arzt kann GPT-4 die Rolle von Kim simulieren und das Gespräch bei einem Patientenbesuch simulieren. Während dieser Gespräche zeigte GPT-4 eine beeindruckende Fähigkeit, Anweisungen effektiv zu befolgen und grundlegende Kenntnisse und ein Verständnis der Welt zu vermitteln. GPT-4 kann auch nach Gesprächsende detaillierte Auswertungen und Empfehlungen liefern.
Peter betonte, dass nicht nur Microsoft+Nuance, sondern auch viele Unternehmen sich mit Archivierungsdiensten für medizinische Dokumente befassen. GPT-4 spielt eine große Rolle bei der Automatisierung und Reduzierung des Aufwands der klinischen Dokumentation. Beispielsweise können damit offene Online-Arzneimittellisten analysiert und vollständige klinische Notizen erstellt werden. Darüber hinaus kann GPT-4 den Gesundheitscheckbericht einer Person lesen und auf mögliche Probleme hinweisen. Diese Anwendungen zeigen, wie GPT-4 den Arbeitsaufwand effektiv reduzieren und Prozesse im medizinischen Bereich optimieren kann.
Drei Einschränkungen von GPT-4
GPT-4 weist derzeit drei wesentliche Einschränkungen auf, die öffentliche Aufmerksamkeit verdienen. Das erste ist das bekannte Halluzinationsproblem. Darauf folgen außergewöhnliche Leistungen in Mathematik und Logik. Schließlich handelt es sich um eine Frage zum KI-Existentialismus. Es ist merkwürdig, ob das KI-Sprachmodell die Handlungen des „Selbst“ wirklich versteht.
Illusion ist ein häufiges Problem bei GPT-4. Wenn GPT-4 beispielsweise gebeten wird, Artikel oder bestimmte Informationen zu zitieren, erhält es möglicherweise Antworten mit fiktiven Elementen, anstatt die relevanten Daten direkt wiederzugeben. Dieses Verhalten ist auf die Tatsache zurückzuführen, dass GPT-4 als Inferenzmodell entwickelt wurde, um eine Duplizierung seiner Trainingsdaten zu vermeiden. In Kombination mit der Bing-Suchmaschine kann GPT-4 relevante Informationen aus Websuchen abrufen und genaue und fundierte Antworten liefern. Diese mit Hilfe externer Tools betriebene Retrieval-Augmented Generation AI (Retrieval-Augmented Generation AI) zeigt das Anwendungspotenzial von GPT-4 im medizinischen Bereich. GPT-4 kann beim Lesen und Verstehen von Forschungsarbeiten helfen und bei der Spekulation und Diskussion tiefgreifender Themen helfen, auf die es keine klaren Antworten gibt. Die Möglichkeit, Arbeiten zusammenzufassen, Verbindungen herzustellen, Folgeforschung vorzuschlagen und Pionierforschung zu identifizieren, ist für Forscher von großem Nutzen, da sie die Produktivität steigert und den Forschungsprozess beschleunigt. Obwohl Illusionen nach wie vor eine Herausforderung darstellen, haben sich Illusionen innerhalb des Forschungsbereichs zu einer Form von Informationsschlussfolgerungen entwickelt, was zu erheblichen Fortschritten in verschiedenen Forschungsbereichen geführt hat.
GPT-4 steht auch vor Herausforderungen in Mathematik und Logik, und einige unverständliche Fehler erwecken bei den Menschen das Gefühl, dass GPT-4 wie ein Außerirdischer sei. GPT-4 löst komplexe Probleme richtig, scheitert jedoch häufig bei einfacheren mathematischen Aufgaben wie der Berechnung von Korrelationen. Um Fehler und Illusionen zu reduzieren, stellten die Forscher fest, dass die Verwendung eines zweiten GPT-4 zur Gegenprüfung oder die Aufforderung an GPT-4, schrittweise zu arbeiten, bessere Ergebnisse lieferte. Durch die Integration von GPT-4 mit Microsoft 365 können Benutzer Word-Dateien effektiv zum Erstellen von Berichten nutzen. Allerdings stößt GPT-4 immer noch auf Schwierigkeiten bei Problemen, die ein Zurückverfolgen erfordern, wie beispielsweise die Unfähigkeit, Probleme zu erraten und zu verifizieren. Trotz dieser Einschränkungen ist GPT-4 überraschend schlussfolgerungsfähig und kann beispielsweise Computerprogramme für Sudoku schreiben. Als Reaktion auf die Einschränkungen und Möglichkeiten von GPT-4 begannen die Menschen, die KI-Ethik zu fördern. Es gibt auch Organisationen wie Microsoft, die für KI-Praktiken verantwortlich sind, die sich auf Fairness, Sicherheit, Datenschutz, Inklusion, Transparenz und Rechenschaftspflicht konzentrieren.
Abschließend geht Peter auf existenzielle Sorgen und persönliche Ängste vor dieser neuen Form der KI ein. Norm. Noam Chomsky in der New York Times (Die New York Times) beschreibt dieses Gefühl ausführlich. Im Gegensatz zu anderen experimentierte Chomsky mit chatgpt und verwies auf die Grenzen der KI. Er betonte, dass das wirklich Wichtige an der KI nicht nur die Beschreibung der Gegenwart, Vergangenheit und Zukunft ist, sondern auch die Beschreibung von Dingen, die nicht existieren, existieren könnten oder nicht existieren können. Chomsky präsentiert ein Beispiel für die Verwendung kontrafaktischer Inferenz und Modelltraining zur Lösung des Lückenfüllproblems durch eine Rückkopplungsschleife, wirft jedoch die Frage auf, ob damit echte KI trainiert werden kann. Als Chomskys Kolumne an GPT-4 weitergeleitet wurde, lieferte GPT-4 eine sehr überzeugende Gegenargumentation und demonstrierte damit die Fähigkeit, sich auf kontrafaktische Argumentation einzulassen. Die widersprüchlichen Ergebnisse sind verwirrend. Dennoch sind die Vorteile und Risiken von GPT-4 im medizinischen Bereich weiterhin nicht zu übersehen.
Wie sollen wir in Zukunft mit GPT-4 interagieren?
Die Konzentration auf die Entwicklung dieser neuen Art von KI ist gut für die Gesellschaft und es ist inspirierend zu sehen, wie die Welt diesen wichtigen Themen Aufmerksamkeit schenkt und sich mit ihnen beschäftigt. Die Gesellschaft wird eines Tages wichtige Entscheidungen treffen müssen: Vielleicht geht es darum, die Technologie einzuschränken oder zu verbieten, weil sie befürchtet, sie sei zu gefährlich. Die Zusammenarbeit zwischen Menschen und KI erforscht die Synergien zwischen Menschen und KI und nutzt die Stärken des anderen, um die gewünschten Ergebnisse zu erzielen. Dies wird eine wichtige Entscheidung sein, die von der Gesellschaft gemeinsam getroffen werden muss und die einen umsichtigen und informierten Ansatz für die bevorstehenden Herausforderungen erfordert.
Weiterführende Literatur: KI hilft Wissenschaftlern, den Fluss der Liquor cerebrospinalis besser zu verstehen
Verweise: 1. https://icgd.bwh.harvard.edu/event/the-emergence-of-general-ai-for-medicine 2. https://jamanetwork.com/journals/jamainternalmedicine/article-abstract/2804309?guestAccessKey=6d6e7fbf-54c1-49fc-8f5e-ae7ad3e02231&utm_source=For_The_Media&utm_medium=referral&utm_campaign=ftm_links&utm_content=tfl&utm_term=04 2823 3. https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html?unlocked_article_code=laMWHERP7zRdIV4Bpj5Xy2oR7FYUoYSSIdBf5VSTLaQE1LKox_ee9SfdR5jbCQiFriYxA_oDyPZ8l13upcJrFeou Wqdibssp0AijIU8j7lnl9vUYthVuCJu4VCdj4FnuEIhK0mGS7Due6SuAyI9-ANWPbCs4i4saaRvu656Xj1ooWwdOjy6KO1iSZPmTDjmo3Rw0EZJMPLfV8gCZ9zXcnaXXEfvlAU6SasKCzcHYZgR5Blne BPOXOia2te1YXoE1HFRviW2odJ8jxqj5_E5p0z1XnCG8giJXpKx67tuIjj-WjjwQ0rjvfVxTcQ4JJixJXY60n8SipoZgdhxoBkWYsEY&smid=url-share
©www.geneonline.news. Alle Rechte vorbehalten. Das Urheberrecht von Geneonline darf nicht ohne Genehmigung reproduziert werden. Für eine Zusammenarbeit wenden Sie sich bitte an: [email protected]