Nachricht


Die Verwendung von Tools wie chatgpt für medizinische Notizen wurde stellenweise bereits verboten. Hier, newsGP untersucht die Implikationen für die Allgemeinmedizin.

Seit der Einführung von ChatGPT wurde viel über seine Auswirkungen auf das Gesundheitswesen diskutiert. Bild: REUTERS/Florence Lo.

Zu den allgegenwärtigen Berichterstattungen über ChatGPT und andere Large Language Models (LLMs) in den letzten Monaten zählt das ABC veröffentlichte einen Bericht über einen Gesundheitsdienst in Perth Das hat die Verwendung der Software zum Verfassen medizinischer Notizen verboten.

Nach Angaben des Senders schickte der Geschäftsführer des South Metropolitan Health Service von Perth die folgende Nachricht an die Mitarbeiter, nachdem mit ChatGPT erstellte medizinische Notizen in Patientenaktensysteme hochgeladen wurden.

„Entscheidend ist, dass es zum jetzigen Zeitpunkt weder eine Garantie für die Vertraulichkeit der Patientenvertraulichkeit beim Einsatz von KI-Bot-Technologie wie ChatGPT gibt, noch verstehen wir die Sicherheitsrisiken vollständig“, schrieb er.

„Aus diesem Grund muss der Einsatz von KI-Technologie, einschließlich ChatGPT, für arbeitsbezogene Aktivitäten, die Patienten- oder potenziell sensible Gesundheitsdienstinformationen umfassen, sofort eingestellt werden.“

Um einen Eindruck von den Implikationen für die allgemeine Praxis zu bekommen, newsGP fragte Dr. David Adam, Mitglied des RACGP Expert Committee – Practice Technology and Management (REC-PTM), nach seiner Meinung. Obwohl Dr. Adam nicht davon überzeugt ist, dass die Verwendung von LLMs wie ChatGPT in der Allgemeinmedizin üblich ist, warnte er, dass es für Ärzte „extrem unklug“ wäre, sie zum Schreiben von Überweisungen oder medizinischen Notizen zu verwenden. Im Folgenden geht er ausführlich auf die Risiken ein. Ähnliche Bedenken hinsichtlich der Verwendung von LLMs wurden letzten Monat auch von der Weltgesundheitsorganisation (WHO) geäußert, als sie einen Aufruf dazu veröffentlichte „sicherer und ethischer“ Einsatz von KI im Gesundheitswesen. „Während die WHO sich für den angemessenen Einsatz von Technologien, einschließlich LLMs, zur Unterstützung von Gesundheitsfachkräften, Patienten, Forschern und Wissenschaftlern begeistert, besteht die Sorge, dass bei LLMs nicht konsequent Vorsicht walten gelassen wird, die normalerweise bei neuen Technologien angebracht wäre. “ heißt es in einer Medienmitteilung der Organisation. „Dazu gehört die weit verbreitete Einhaltung zentraler Werte wie Transparenz, Inklusion, öffentliches Engagement, fachkundige Aufsicht und strenge Bewertung.“

Dr. Owen Bradfield, Allgemeinmediziner und Chief Medical Officer bei der Schadensversicherungsorganisation MIPS, äußerte sich zu dem Bericht wie folgt: ABC

„Aus gerichtsmedizinischer Sicht hat ein Arzt, der mit der Erstellung eines Entlassungsberichts beauftragt ist, bereits eine rechtliche, ethische und berufliche Verpflichtung, sicherzustellen, dass dieser genau und richtig ist und dass seine Erstellung und Offenlegung nicht zu einer Verletzung der Schweigepflicht des Arztes führt.“ ,‘ er sagte newsGP.

„Diese Pflichten bestehen unabhängig davon, ob KI eingesetzt wird oder nicht.“

Siehe auch  Netskope ermöglicht die sichere Unternehmensnutzung von ChatGPT und generativen KI-Anwendungen

Dr. Bradfield sagt, dass die Regulierung der KI komplex ist und sich weiterentwickelt.

„Ich stelle fest, dass die Generalstaatsanwaltschaft des Commonwealth vor Kurzem einen Bericht veröffentlicht hat Überprüfung des Datenschutzgesetzes „Ziel ist es, den Datenfluss zu regulieren (der künftige Nutzungen von KI einschließen könnte), indem sichergestellt wird, dass die Menschen darüber informiert werden, wie auf ihre Daten zugegriffen und diese verwendet werden“, sagte er. Neben der Beantwortung von Fragen an Dr. Adam und Bradfield, newsGP sprach auch mit David Vaile, einem UNSW-Dozenten für Big Tech, KI und Recht und dem derzeitigen Vorsitzenden der Australian Privacy Foundation. Seine Ansichten sind unten aufgeführt. Die vollständigen Gedanken von Dr. David Adam: Aktuelle große Sprachmodelle (LLMs) wie ChatGPT und GPT-4, die als „Künstliche Intelligenz“ vermarktet werden, nutzen große Mengen öffentlicher Textinformationen, um Algorithmen zu generieren, die Eingabeaufforderungen verschiedener Art verarbeiten können.

Der Vorhersagetext eines Mobiltelefons kann das nächste Wort in einem Satz vorschlagen; LLMs können ganze Absätze oder mehrere gleichzeitig vorschlagen.

Leider lässt sich aus diesen Modellen leicht auf Verständnis oder Kompetenz schließen, aber in den letzten Monaten gab es viele Beispiele, bei denen die von ChatGPT oder ähnlichen Programmen generierten Ergebnisse irreführend, unvollständig oder einfach falsch waren.

Es ist leicht, Selbstvertrauen mit Kompetenz zu verwechseln, und die Ergebnisse dieser Programme wirken auf jeden Fall äußerst zuversichtlich.

Benutzer beschreiben „Halluzination; oder „Konfabulation“, bei der das Programm plausible, aber falsche Beschreibungen ausgibt, und ein aktuelles, viel beachtetes Beispiel ist der Anwalt, der die Unterlagen eingereicht hat an ein Gericht, das eine Reihe gefälschter Argumente und Referenzen enthielt.

Wichtig ist, dass Tools wie ChatGPT nicht für die Bereitstellung diagnostischer oder therapeutischer Ratschläge entwickelt oder getestet wurden. Wir würden von Ärzten erwarten, dass sie keine ungetesteten Medikamente verschreiben. Das Gleiche sollten wir auch bei der Verwendung dieser Tools für die klinische Arbeit ohne entsprechende Sicherheitsvorkehrungen erwarten, und sie sollten derzeit weitgehend auf Forschungsumgebungen beschränkt bleiben.

Es bestehen ernsthafte ethische Fragen hinsichtlich der Produktion dieser Programme. Die Modelle werden erstellt, indem riesige Textmengen aus dem Internet und anderen Quellen einem Algorithmus zugeführt werden. Die Herkunft dieses Textes ist nicht gut dokumentiert (der Aufsatz „On The Dangers of Stochastic Parrots“ ist hier wahrscheinlich die beste Referenz, die es gibt). eine vernünftige Zusammenfassung hier) und einige haben geltend gemacht, dass es gegen Urheberrechtsbestimmungen verstößt.

Die Ausgabe wurde angezeigt starke rassistische und sexistische Vorurteile hegen, was niemanden überraschen wird, der viel Zeit in den sozialen Medien verbracht hat. Ich ermutige Ärzte, die Konsequenzen der Verwendung von Programmen zu berücksichtigen, von denen wir wissen, dass sie auf potenziell schädliche Weise erstellt wurden und potenziell schädliche Ergebnisse erzeugen können.

Siehe auch  OpenAI stellt den GPT Store vor, der auf benutzerdefinierte ChatGPT-Versionen ausgerichtet ist

Schließlich gibt es einen wichtigen Datenschutzaspekt für Ärzte, die ChatGPT und andere LLMs verwenden. In den Datenschutzrichtlinien dieser Programme heißt es häufig, dass die an sie übermittelten Daten für weitere Schulungen verwendet werden dürfen Samsung hat ihre Verwendung verboten aufgrund der Weitergabe vertraulicher Daten an andere. Es ist tollkühn, ChatGPT zu verwenden, um Überweisungen zu schreiben oder sich Notizen zu machen, und davon auszugehen, dass es ausreicht, den Namen des Patienten nicht in den Text aufzunehmen, um seine Privatsphäre zu schützen.

Es ist unwahrscheinlich, dass das Standard-Einverständnisformular Ihrer Praxis die Verwendung dieser Tools abdeckt.

Insgesamt würde ich Ärzte dazu ermutigen, LLMs zu meiden, es sei denn, ein Patient hat der Nutzung eines experimentellen Dienstes ausdrücklich zugestimmt, was möglicherweise Auswirkungen auf die Privatsphäre hat, trotz der Verlockung des blumigen Textes, den sie produzieren.  

Interview mit David Vaile, Vorsitzender der Australian Privacy Foundation

Laut Herrn Vaile, der an der UNSW Vorlesungen über Big Data, Ethik und KI hält, hatte ein Großteil der jüngsten Berichterstattung über die Technologie nicht die richtige Balance.

„Ein Kritikpunkt, den ich anmerken möchte, ist der allgemein atemlose, unkritische Ton gegenüber den Aussichten verschiedener Arten von KI“, sagte er newsGP. „Sie sind sehr unterschiedlich, sie sind sehr variabel.“

Er bezeichnet diejenigen, die hinter LLMs wie ChatGPT stehen, als „Praktizierende des Kults der Störung“.

„Es geht um Ablenkung, um atemlosen Hype und Werbung … das ist völlig aus dem Ruder gelaufen“, sagte er.

„Es gibt so etwas wie den Hype-Zyklus … und er erreicht einen Höhepunkt überzogener Erwartungen und bricht dann ab, wenn den Leuten klar wird, dass nichts so gut sein kann wie das, was sie beworben haben.“

„Wir sind im Moment sozusagen an diesem Höhepunkt angelangt.“

Herr Vaile sagte, er habe beim Aufbau eines neuen Kurses über Big Tech, KI und Recht geholfen, der vor etwa vier Monaten zum ersten Mal stattfand.

„Alles veränderte sich jeden Tag unter deinen Füßen“, sagte er. „Das regulatorische Umfeld ist nicht klar, das ist ein anderes Problem.“

Siehe auch  Intel setzt stark auf OpenAI von ChatGPT, investiert stark in Stability AI, Hersteller von Stable Diffusion

„Aber die Technik, die Implikationen, die Funktionalität, im Grunde wurde alles in den letzten sechs Monaten auf den Kopf gestellt.“

Wie Dr. Adam wirft er das Problem falscher Aussagen auf, die von LLMs gemacht werden können, die er mit einem „sehr selbstbewussten und zufällig völlig falschen Betrüger“ vergleicht.

„Es geht darum, eine riesige Menge an Material zu verarbeiten, viel davon ist Müll, viel davon ist privat, viel davon ist Eigentum“, sagte er.

„Von den vielen verschiedenen Fragen und regulatorischen und rechtlichen Problemen, die aufgeworfen werden, sind die Fragen des Urheberrechts, des geistigen Eigentums und der Vertraulichkeit riesig.“

Während Herr Vaile die Vorteile des Einsatzes von KI für sehr spezifische Zwecke anerkennt und das Beispiel ihres Einsatzes in der Radiologie zur Erfassung subtiler histologischer Veränderungen nennt, die selbst erfahrene Menschen möglicherweise übersehen, weist er darauf hin, dass in diesen Fällen keine generative KI im Spiel ist .

„Je allgemeiner man es erwartet, desto größer ist die Bandbreite der Möglichkeiten, wie etwas schief gehen kann“, sagte er.

Wie Dr. Adam äußert auch Herr Vaile eine starke Vorsicht hinsichtlich des Transparenzniveaus, das die Unternehmen hinter den LLMs anwenden.

„Die Geheimhaltung hinter der sehr kleinen Anzahl internationaler Megakonzerne, die diese Dinge tun … man kann im Grunde nicht sagen, was sie aufnehmen, wie sie es verarbeiten, was sie mit Ihren Dingen machen“, sagte er.

„Sie sind völlig undurchsichtig.“

„Es gibt die Geheimhaltung, aber auch den alles fressenden, wahllosen Appetit.“

„Damit haben Sie es zu tun.“ Persönliche medizinische Daten sind die sensibelste Form von Daten und unterliegen einer besonderen rechtlichen Kategorie [in] Datenschutzgesetze auf der ganzen Welt.‘

Er beschreibt die Verwendung solcher Daten als „die Kernfusionsversion von Informationen im Hinblick auf potenziellen Reichtum und Wert, aber auch Gefahren und Risiken sowie potenzielle Schäden“.

Die Geschwindigkeit des Wandels sollte ein weiterer Grund zum Innehalten sein, sagt er.

„Es legt nahe, dass wir das Vorsorgeprinzip anwenden sollten, anstatt schnell zu handeln und Dinge kaputt zu machen.“

Die Stellungnahme des RACGP zum Einsatz künstlicher Intelligenz in der Primärversorgung wurde im März 2021 veröffentlicht und ist verfügbar auf der Website der Hochschule.

Melden Sie sich unten an, um an der Unterhaltung teilzunehmen.



Künstliche Intelligenz ChatGPT Große Sprachmodelle


wöchentliche NewsGP-Umfrage In der Ärzteschaft hören wir oft davon, wie wichtig es ist, einen eigenen Hausarzt zu haben. Befolgen Sie als Arzt diesen Rat?

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein