Die Popularität und das Interesse an künstlicher Intelligenz (KI) sind dank der Veröffentlichung von chatgpt im November 2022 sprunghaft angestiegen. ChatGPT ist ein von OpenAI entwickelter KI-Chatbot zur Verarbeitung natürlicher Sprache. Diese Sprachlernsoftware wird durch Benutzerfeedback trainiert, um die menschliche Interaktion besser zu verstehen. Seit seiner Veröffentlichung haben verschiedene Branchen nach der Implementierung von ChatGPT und anderen ähnlichen Tools für generative KI (GAI) gesucht.

Der Gesundheitssektor blieb von der jüngsten GAI-Welle nicht isoliert. Angehörige der Gesundheitsberufe haben bereits damit begonnen, die verschiedenen Möglichkeiten zu prüfen, wie GAI in ihre Arbeitsabläufe implementiert werden könnte. GAI kann in vielen verschiedenen Bereichen des Gesundheitswesens weitreichende Auswirkungen haben, darunter die Zusammenfassung der Krankengeschichten von Patienten, die Erstellung von Behandlungsplänen, das Vorschlagen möglicher Diagnosen auf der Grundlage von Symptomen und die Unterstützung bei routinemäßigen Verwaltungsaufgaben wie der Planung von Terminen und der Einstufung von Patienten. Wie jede neue Technologie hat GAI jedoch Nachteile, und für diejenigen im Gesundheitswesen ist es am besten, einen vorsichtigen Ansatz bei der Nutzung von GAI zu wählen.

Eine der größten Bedenken beim Einsatz von GAI im Gesundheitswesen ist die Frage, ob das Tool dem Health Insurance Portability and Accountability Act (HIPAA) entspricht oder nicht. HIPAA verlangt von bestimmten „Covered Entities“ den Schutz sensibler Patientendaten. Alle Krankenversicherungsgesellschaften, Clearingstellen und Anbieter, die geschützte Gesundheitsinformationen (Protected Health Information, PHI) verarbeiten, sind zur Einhaltung der HIPAA-Vorschriften verpflichtet. „Geschäftspartner“, das sind Drittorganisationen, die Dienstleistungen für oder im Namen eines abgedeckten Unternehmens erbringen und im Zusammenhang mit diesen Dienstleistungen PHI von einem abgedeckten Unternehmen erhalten, müssen ebenfalls die HIPAA-Standards einhalten und „Geschäftspartnervereinbarungen“ unterzeichnen ” (BAAs) mit abgedeckten Unternehmen, die sich zur Einhaltung der HIPAA-Vorschriften verpflichten.

Siehe auch  ChatGPT Code Interpreter: Ihr neuer Codierungsassistent

Zuvor warnte OpenAI in seinem Beitrag vor dem Hochladen vertraulicher Informationen auf ChatGPT Nutzungsbedingungen und auf seinem FAQ-Seite. Am 1. März 2023 aktualisierte OpenAI jedoch seine Richtlinien und stellte fest, dass bestimmte von Benutzern übermittelte Daten nicht zum Trainieren oder Verbessern seiner Modelle verwendet werden, es sei denn, einzelne Benutzer erklären sich ausdrücklich mit der Weitergabe dieser Daten einverstanden. OpenAI hat auch angekündigt dass es auf Anfrage in der Lage sein wird, BAAs zu unterzeichnen, um die Einhaltung der HIPAA durch einen entsprechenden Kunden zu unterstützen. Wenn zwischen OpenAI und dem abgedeckten Unternehmen kein BAA besteht, verstoßen alle auf ChatGPT hochgeladenen PHI gegen HIPAA. Auch wenn ein BAA mit OpenAI besteht, müssen einzelne Mitarbeiter eines abgedeckten Unternehmens dennoch mit Vorsicht vorgehen, da HIPAA verlangt, dass alle Offenlegungen von PHI an einen Geschäftspartner einen legitimen Gesundheitsbetrieb, eine Behandlung oder einen Zahlungszweck haben; und solche Offenlegungen sollten nur die minimal erforderliche Menge an PHI verwenden, um diese Aufgabe zu erfüllen.

Ein weiteres Problem bei ChatGPT ist seine Fähigkeit: „halluzinieren„durch die Erstellung falscher oder irreführender Informationen, die auf den ersten Blick korrekt erscheinen, aber nicht unterstützt werden. Anders ausgedrückt: GAI kann wie ChatGPT Fehler machen. Daher muss die ChatGPT-Ausgabe von einem Gesundheitsexperten überprüft werden, und tatsächlich ist dies nicht nur eine bewährte Vorgehensweise, sondern auch eine ChatGPT-Anforderung. In seinen Nutzungsrichtlinien verlangt OpenAI, dass „die verbraucherorientierte Nutzung unserer Modelle in der Medizin-, Finanz- und Rechtsbranche“ erfolgt. . . muss den Nutzern einen Haftungsausschluss zur Verfügung stellen, der sie darüber informiert, dass KI eingesetzt wird und über mögliche Einschränkungen informiert.“ Abgesehen von Haftungsausschlüssen ist anzumerken, dass ChatGPT zum jetzigen Zeitpunkt nur auf Informationen bis September 2021 geschult ist. Da ChatGPT außerdem auf von Menschen erstelltem Material geschult ist, kann und wird es Vorurteile aufrechterhalten, die bereits im Gesundheitswesen zu finden sind .

Siehe auch  Tim Cook: Apple ist von ChatGPT begeistert und beobachtet dessen Entwicklung genau

Gesundheitsdienstleister können einen Verstoß gegen HIPAA vermeiden, wenn ihre Mitarbeiter GAI-Tools verwenden, indem sie Richtlinien implementieren, die ihre Mitarbeiter bei der Nutzung von ChatGPT einschränken oder blockieren. Wenn eine bestimmte Abteilung oder ein Mitarbeiter einen legitimen Geschäftsfall für die Nutzung von ChatGPT erkennt, sollte ein solcher Zugriff erst gewährt werden, nachdem der Mitarbeiter ordnungsgemäß über die Nutzung und die Fallstricke geschult wurde. Das abgedeckte Unternehmen sollte weiter prüfen, ob ein BAA mit OpenAI angemessen ist.

Gesundheitsdienstleister sollten bei der Verwendung von ChatGPT auch strenge Sicherheitsmaßnahmen für die Speicherung und Übermittlung von PHI ergreifen, wie zum Beispiel die folgenden:

  • Daten sollten verschlüsselt sein und die verwendeten GAI-Plattformen sollten sicher und HIPAA-konform sein. Es gibt Plattformen wie gpt-MD Und SuperOps.ai die als Proxys für OpenAI fungieren und es Gesundheitsdienstleistern ermöglichen sollen, ChatGPT auf HIPAA-konforme Weise zu nutzen. Einzelne abgedeckte Unternehmen sollten die HIPAA-Konformität jeder Plattform bestätigen, wenn sie Proxys von Drittanbietern verwenden.
  • Es sollten regelmäßige Risikobewertungen und Audits durchgeführt werden, um die Einhaltung von HIPAA und den geltenden Datenschutzgesetzen der Bundesstaaten sicherzustellen.
  • Nur autorisiertes Personal sollte in der Lage sein, sowohl mit der GAI-Plattform als auch mit den Daten zu interagieren.
  • Durch die ordnungsgemäße Anonymisierung von Gesundheitsdaten vor dem Hochladen auf Chat GPT kann das Risiko einer unzulässigen Offenlegung von PHI verringert und die Nutzung der Daten ohne Verstoß gegen die HIPAA-Vorschriften ermöglicht werden. Alle Ausgaben von ChatGPT oder anderen generativen KI-Tools sollten von einem menschlichen Experten überprüft werden, um ihre Richtigkeit sicherzustellen.
  • Gesundheitsdienstleister sollten außerdem das gesamte Gesundheitspersonal über die Einschränkungen und potenziellen Risiken im Zusammenhang mit KI schulen und aufklären, um das Risiko eines möglichen HIPAA-Verstoßes durch einen uninformierten Mitarbeiter zu verringern.
Siehe auch  ChatGPT verändert die Denkweise der Menschen, und Sie sind sich der versteckten Gefahren möglicherweise nicht bewusst – Computerkönig Ada

Bei richtiger Anwendung kann KI ein leistungsstarkes Werkzeug sein, das Aufgaben rationalisiert und den Patienten insgesamt ein besseres Erlebnis bietet. Allerdings sollte es dennoch mit Vorsicht verwendet werden. Gesundheitsdienstleister müssen darauf achten, wie sie KI nutzen, insbesondere wenn es um die Privatsphäre ihrer Patienten geht.


[1] Die Autoren dieses Artikels hatten Schwierigkeiten mit einem Titel, deshalb haben wir ChatGPT gebeten, einen für uns zu schreiben. Eine weitere Option war: „ChatGPT im Gesundheitswesen: ‚HIPAA-potamus‘ – Navigieren durch die trüben Gewässer der KI-Vertraulichkeit!“

[View source.]

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein