Laut einer neuen Studie kann chatgpt Ärzten bei der Erstellung medizinischer Notizen in puncto Geschwindigkeit überlegen sein. (Quelle: DjelicS / Getty Images)

In der Zeit, die zum Lesen dieses Satzes benötigt wird, hätte ChatGPT mehrere Entlassungszusammenfassungen für entlassene Krankenhauspatienten erstellen können.

Das Tool der künstlichen Intelligenz, das vor etwas mehr als einem Jahr die KI-Explosion einleitete, war einer neuen Studie zufolge in der Lage, medizinische Notizen mit einer satten zehnfachen Geschwindigkeit zu erstellen wie menschliche Ärzte Studie. Die Schnellnotizen von ChatGPT wurden nicht nur schneller geschrieben als Menschen, sondern wurden auch als „von vergleichbarer Qualität“ eingestuft, so die Autoren.

„Administrative Anforderungen im Gesundheitswesen tragen erheblich zu steigenden Gesundheitsausgaben, geringer Arbeitszufriedenheit und letztendlich zu Burnout bei“, so die Autoren der ChatGPT-Studie schrieb. „Die Qualität der Entlassungsdokumente ist von entscheidender Bedeutung, da sie die laufende Patientenversorgung und -sicherheit und sogar Erstattungssysteme beeinflusst.“

Ist ChatGPT also bereit, die Führung bei der Überweisung von Patienten an die Postakutversorgung zu übernehmen?

Vielleicht nicht so schnell: Die Studie hatte strenge Einschränkungen und Vorbehalte. Am Pilotprojekt waren keine realen Studienteilnehmer beteiligt, sondern sechs fiktive Patientenprofile. Darüber hinaus beschränkten sich die Entlassungsbescheide auf orthopädische Fälle.

Darüber hinaus kam eine andere Studie vom letzten Monat zu einem fast gegenteiligen Ergebnis: dass KI weiterhin erhebliche und gefährliche Fehler bei der Vereinfachung von Notizen nach der Entlassung macht.

Bevor KI als zuverlässig gelten kann, müssen Betreiber von Seniorenheimen darauf vertrauen können, dass diese Tools einen Senior, der in ihre Einrichtung kommt, nicht unter- oder falsch diagnostizieren.

Die Schwere vieler Grunderkrankungen bei älteren Erwachsenen ist mehr als nur ein kleines Versäumnis, denn sie bedeutet, dass ein zu großes Vertrauen in die KI zu einem Notfall führen kann. In der letztgenannten Studie „halluzinierte“ die KI Brustschmerzen bei einem Patienten und verschrieb einem anderen, der diese nicht brauchte, Herzmedikamente.

Siehe auch  ChatGPT prognostiziert den Tesla-Aktienkurs für die Cybertruck-Lieferung am 30. November

Die Forscher hinter der orthopädischen Notizstudie sind sich der Grenzen der Ergebnisse bewusst und planen, die Studie als Folgeuntersuchung mit 1.000 tatsächlichen Patientenakten durchzuführen.

Darüber hinaus müssten weitere Studien klären, ob die Zeit, die für die Überprüfung von ChatGPT-generierten Notizen benötigt wird, der schnellen Fähigkeit der KI, diese zu erstellen, entgegensteht, sagten die Studienautoren und fügten hinzu, dass Ärzte relativ weniger Zeit für die Überprüfung von Notizen benötigen würden, die sie selbst erstellt haben .

Es besteht nach wie vor großes Interesse an der Möglichkeit, dass KI belastende Verwaltungsaufgaben von der Arbeitsbelastung des Gesundheitspersonals, auch im Seniorenwohnbereich, abnimmt.

Auch wenn es mit KI immer noch schwierig sein mag, genaue Zusammenfassungen aus medizinischen Aufzeichnungen zu erstellen, werden KI-Tools bereits zur Transkription von Arzt-Patienten-Gesprächen eingesetzt und können für Zwecke wie Abrechnung und Terminplanung verwendet werden, ohne dass das Personal befürchten muss, dass es zu einem gesundheitlichen Notfall kommen könnte.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein