Krankenhäuser und Gesundheitssysteme, deren Anbieter chatgpt nutzen, könnten HIPAA-Verstößen und Klagen ausgesetzt sein, wenn sie nicht vorsichtig mit Patientendaten umgehen, so zwei Experten für Gesundheitspolitik schrieb In JAMA.
Ärzte, die den Chatbot mit künstlicher Intelligenz in ihrer Praxis einsetzen, teilen die Daten mit seinem Entwickler OpenAI, sodass sie sicherstellen müssen, dass sie keine geschützten Gesundheitsinformationen eingeben, heißt es in dem Artikel von Genevieve Kanter, PhD, einer außerordentlichen Professorin für Gesundheitspolitik an der University of Southern California in Los Angeles, und Eric Packel, Anwalt für Datenschutz und Compliance im Gesundheitswesen bei der Anwaltskanzlei BakerHostetler.
„Das ist schwieriger als es klingt“, schrieben sie. „Abschriften von Begegnungen können mit harmlosen Kommentaren wie „Keine Sorge, Mr. Lincoln. Es ist nur eine Fleischwunde und wir werden Sie reparieren“ gespickt sein, die als PHI gelten. Beiläufige Hinweise auf den Wohnsitz einer Person in diesem Zusammenhang („Wie geht es Ihrer neuen Wohnung in Springfield?“) sind ebenfalls PHI. Patientennamen, einschließlich Spitznamen, Verweise auf geografische Informationen, die kleiner als ein Bundesstaat sind, sowie Aufnahme- und Entlassungsdaten, um nur einige Beispiele zu nennen, müssen bereinigt werden, bevor Transkripte eingespeist werden können in das Chat-Tool.“
Die beiden Experten empfahlen den Gesundheitssystemen, ihre Mitarbeiter über die Risiken von Chatbots zu schulen, auch im Rahmen ihrer jährlichen HIPAA-Schulung.