Künstliche Intelligenz (KI), bei der es um die Schaffung von Computersystemen geht, die in der Lage sind, menschenähnliche Aufgaben wie Lernen, Problemlösung und Entscheidungsfindung nachzuahmen, hat sich nahtlos in das Gefüge unseres täglichen Lebens integriert. Seine weitreichenden Auswirkungen erstrecken sich auf wichtige Bereiche wie die Gesundheitsinfrastruktur.

Eine zentrale Kraft im Bereich der KI ist der Einsatz großer multimodaler Modelle (LMMs).

LMMs können eine oder mehrere Arten von Dateneingaben akzeptieren, z. B. Text, Videos und Bilder, und verschiedene Ausgaben generieren, die nicht auf die Art der eingegebenen Daten beschränkt sind. LMMs sind einzigartig in ihrer Nachahmung der menschlichen Kommunikation.

LMMs wurden schneller angenommen als jede andere Verbraucheranwendung in der Geschichte, und im Jahr 2023 gelangten mehrere Plattformen wie chatgpt, Bard und Bert ins öffentliche Bewusstsein.

Im Gesundheitssektor haben sich LMMs zu unverzichtbaren Instrumenten für die Patientenbehandlung und -forschung entwickelt.

Lesen Sie auch: Auf der Jagd nach dem Heiligen Gral: Wie KI Diagnose und Intervention im Gesundheitswesen verändern kann

WHO-Richtlinien

Die Weltgesundheitsorganisation (WHO) hat das wachsende Interesse von Fachleuten an der Nutzung von LMMs für ihre Arbeit erkannt und neue Richtlinien dazu herausgegeben die Ethik und Governance von LMMs.

Diese Richtlinien befassen sich mit den ethischen Problemen im Zusammenhang mit der raschen Weiterentwicklung der generativen KI-Technologie, insbesondere bei ihren Anwendungen im Gesundheitswesen.

Siehe auch  Ein modellunabhängiges Redundanzmaß für die Unterscheidung zwischen menschlichen und ChatGPT-Autoren unter Verwendung eines Bayes'schen probabilistischen Ansatzes

„Generative KI-Technologien haben das Potenzial, die Gesundheitsversorgung zu verbessern, aber nur, wenn diejenigen, die diese Technologien entwickeln, regulieren und nutzen, die damit verbundenen Risiken erkennen und vollständig berücksichtigen“, sagte Dr. Jeremy Farrar, Chefwissenschaftler der WHO, in einer Erklärung.

„Wir brauchen transparente Informationen und Richtlinien, um das Design, die Entwicklung und den Einsatz von LMMs zu verwalten, um bessere Gesundheitsergebnisse zu erzielen und anhaltende gesundheitliche Ungleichheiten zu überwinden“, fügte er hinzu.

Das Leitliniendokument enthält über 40 Empfehlungen zur Berücksichtigung durch Regierungen, Technologieunternehmen und Gesundheitsdienstleister, um den angemessenen Einsatz von LMMs zur Förderung und zum Schutz der Gesundheit der Bevölkerung sicherzustellen.

„Dieses Dokument befasst sich mit der zunehmenden Verwendung von LMMs (einschließlich großer Sprachmodelle wie ChatGPT), die für den Einsatz im Gesundheitswesen und in der Medizin mit äußerst unterschiedlichen Datensätzen trainiert werden, die über Text hinausgehen und Biosensor-, Genom-, Epigenom-, Proteom-, Bildgebungs-, klinische, soziale und Umweltdaten. Daher können LMMs mehr als einen Eingabetyp akzeptieren und Ausgaben generieren, die nicht auf den eingegebenen Datentyp beschränkt sind. „LMMs sind für vielfältige Anwendungen im Gesundheitswesen und in der Arzneimittelentwicklung vorgesehen“, heißt es im Leitliniendokument.

Lesen Sie auch: KI-gestützte Deepfakes geben im Jahr 2023 Anlass zur Sorge hinsichtlich der Auswirkungen auf die Privatsphäre und die Wahlpolitik

Mögliche Vorteile, Risiken

Die neuen WHO-Leitlinien skizzieren fünf umfassende Anwendungen von LMMs für die Gesundheit:

  • Diagnose und klinische Betreuung, z. B. Beantwortung schriftlicher Anfragen von Patienten
  • Patientengeführter Einsatz, etwa zur Untersuchung von Symptomen und zur Behandlung
  • Büro- und Verwaltungsaufgaben, wie z. B. die Dokumentation und Zusammenfassung von Patientenbesuchen in elektronischen Gesundheitsakten
  • Medizinische und pflegerische Ausbildung, einschließlich der Bereitstellung simulierter Patientenbegegnungen für Auszubildende
  • Wissenschaftliche Forschung und Arzneimittelentwicklung, einschließlich der Identifizierung neuer Verbindungen
Siehe auch  „Verdienen Palästinenser Freiheit?“ Für ChatGPT ist es „ein komplexes Thema“ | Palästina

Während LMMs zunehmend für bestimmte gesundheitsbezogene Zwecke eingesetzt werden, besteht auch die dokumentierte Gefahr, falsche, ungenaue, voreingenommene oder unvollständige Aussagen zu machen, die Menschen schaden könnten, die solche Informationen bei Gesundheitsentscheidungen verwenden.

Darüber hinaus können LMMs anhand von Daten geschult werden, die von schlechter Qualität oder voreingenommen sind, sei es hinsichtlich Rasse, ethnischer Zugehörigkeit, Abstammung, Geschlecht, Geschlechtsidentität oder Alter.

Der Leitfaden beschreibt auch umfassendere Risiken für Gesundheitssysteme, wie etwa die Zugänglichkeit und Erschwinglichkeit der leistungsstärksten LMMs. LMMS können auch eine „Automatisierungsverzerrung“ bei medizinischem Fachpersonal und Patienten fördern, wodurch Fehler übersehen werden, die andernfalls erkannt worden wären, oder schwierige Entscheidungen fälschlicherweise an ein LMM delegiert werden.

Wie andere Formen der KI sind auch LMMs anfällig für Cybersicherheitsrisiken, die Patienteninformationen oder die Vertrauenswürdigkeit dieser Algorithmen und die Gesundheitsversorgung im Allgemeinen gefährden könnten.

Um sichere und wirksame LMMs zu schaffen, betont die WHO die Notwendigkeit des Engagements verschiedener Interessengruppen: Regierungen, Technologieunternehmen, Gesundheitsdienstleister, Patienten und Zivilgesellschaft, in allen Phasen der Entwicklung und des Einsatzes solcher Technologien, einschließlich ihrer Aufsicht und Regulierung.

„Regierungen aller Länder müssen gemeinsam Anstrengungen unternehmen, um die Entwicklung und Nutzung von KI-Technologien wie LMMs wirksam zu regulieren“, sagte Dr. Alain Labrique, WHO-Direktor für digitale Gesundheit und Innovation in der Wissenschaftsabteilung.

Lesen Sie auch: 85,7 Prozent der Keraliter sind sich der Schlaganfallsymptome nicht bewusst, heißt es in einer Studie

Wichtige Empfehlungen

Die neuen WHO-Leitlinien enthalten Empfehlungen für Regierungen, deren Hauptverantwortung darin besteht, Standards für die Entwicklung und den Einsatz von LMMs sowie deren Integration und Nutzung für die öffentliche Gesundheit und medizinische Zwecke festzulegen.

Beispielsweise sollten Regierungen:

  • Investieren Sie in gemeinnützige oder öffentliche Infrastruktur oder stellen Sie diese bereit, einschließlich Rechenleistung und öffentlicher Datensätze, die Entwicklern im öffentlichen, privaten und gemeinnützigen Sektor zugänglich sind und die von den Benutzern im Gegenzug die Einhaltung ethischer Grundsätze und Werte verlangt Zugang.
  • Nutzen Sie Gesetze, Richtlinien und Vorschriften, um sicherzustellen, dass LMMs und Anwendungen, die im Gesundheitswesen und in der Medizin eingesetzt werden, unabhängig von den mit der KI-Technologie verbundenen Risiken oder Vorteilen ethischen Verpflichtungen und Menschenrechtsstandards entsprechen, die beispielsweise die Würde, Autonomie oder Privatsphäre einer Person betreffen .
  • Beauftragen Sie eine bestehende oder neue Regulierungsbehörde mit der Bewertung und Genehmigung von LMMs und Anwendungen, die für den Einsatz im Gesundheitswesen oder in der Medizin vorgesehen sind – sofern die Ressourcen dies zulassen.
  • Führen Sie obligatorische Audits und Folgenabschätzungen nach der Veröffentlichung ein, auch in Bezug auf Datenschutz und Menschenrechte, durch unabhängige Dritte, wenn ein LMM in großem Maßstab eingesetzt wird. Die Prüfungen und Folgenabschätzungen sollten veröffentlicht werden und Ergebnisse und Auswirkungen enthalten, aufgeschlüsselt nach der Art des Benutzers, einschließlich beispielsweise nach Alter, Rasse oder Behinderung.
Siehe auch  ChatGPT-Konkurrent, der auf Ihrem Mac oder Windows-PC läuft

Die Leitlinien enthalten außerdem die folgenden wichtigen Empfehlungen für Entwickler von LMMs, die Folgendes sicherstellen sollten:

  • LMMs werden nicht nur von Wissenschaftlern und Ingenieuren entworfen. Potenzielle Nutzer und alle direkten und indirekten Interessengruppen, darunter medizinische Anbieter, wissenschaftliche Forscher, medizinisches Fachpersonal und Patienten, sollten bereits in den frühen Phasen der KI-Entwicklung in ein strukturiertes, integratives und transparentes Design eingebunden werden und ihnen die Möglichkeit gegeben werden, ethische Fragen anzusprechen, Bedenken zu äußern und bereitzustellen Input für die betrachtete KI-Anwendung.
  • LMMs sind darauf ausgelegt, genau definierte Aufgaben mit der notwendigen Genauigkeit und Zuverlässigkeit auszuführen, um die Kapazität von Gesundheitssystemen zu verbessern und die Interessen der Patienten voranzutreiben. Entwickler sollten auch in der Lage sein, potenzielle sekundäre Ergebnisse vorherzusagen und zu verstehen.
5/5 - (156 votes)
Anzeige