Ein umfangreiches, aber missverstandenes Vokabular
chatgpt bezog sich zwar immer auf die entsprechende medizinische Terminologie, doch die Materialien, die es unter Verwendung dieser Terminologie erstellte, waren voller Ungenauigkeiten in Bezug auf die Verfahren. Experten stellten bei 30 % der Broschüren, die das umfangreiche Sprachmodell erstellte, Probleme fest.
Die am häufigsten vorkommenden Ungenauigkeiten bezogen sich auf Informationen zu möglichen Komplikationen während des Eingriffs und darauf, ob eine Sedierung erforderlich war.
„Das Weglassen von Informationen zur Sedierung kann zu einer Einwilligung ohne Informierung führen, da sich die Patienten über die Erfahrung des Verfahrens oder die damit verbundenen Risiken nicht vollständig im Klaren sind“, warnt die Gruppe. „Das Fehlen von Details zur Vorbereitung vor dem Eingriff kann zu Verfahrensverzögerungen oder erhöhten Risiken während des Eingriffs führen.“
Ein zeilenweiser Vergleich offenbarte außerdem Inkonsistenzen zwischen den Materialien. Ihre Struktur und Formatierung wiesen erhebliche Unterschiede auf, obwohl verschiedene Benutzer ChatGPT mit genau denselben Befehlen aufforderten.
„Eines der größten Hindernisse bei der Einführung von ChatGPT im Gesundheitswesen ist der Bedarf an aktuellen medizinischen Daten“, stellen die Autoren fest. „Dies unterstreicht die Bedeutung einer kontinuierlichen menschlichen Überwachung und Expertenvalidierung bei der Verwendung großer Sprachmodelle für medizinische Ausbildungszwecke.“
Zukünftige Studien sollten sich mit der Feinabstimmung der Daten befassen, die große Sprachmodelle wie ChatGPT verwenden, schlagen die Autoren vor. Einige Studien haben begonnen, die Nützlichkeit von Plug-Ins zu testen, die themenspezifische Daten enthalten (z. B. Eignungskriterien für die Radiologie), um große Sprachmodelle zu trainieren und genaue gesundheitsbezogene Informationen bereitzustellen.
Die Zusammenfassung der Studie finden Sie Hier.