chatgpt, das KI-Sprachmodell, das menschliche Gespräche widerspiegeln kann, ist möglicherweise besser als ein Arzt darin, anerkannte Behandlungsstandards für klinische Depressionen einzuhalten, und zwar ohne die Geschlechts- oder sozialen Klassenvorurteile, die manchmal in der Beziehung zwischen Hausarzt und Patient zu beobachten sind, so eine Studie im Open-Access-Journal veröffentlicht Familienmedizin und Gemeinschaftsgesundheit.

Es bedarf jedoch weiterer Forschung darüber, wie gut diese Technologie schwere Fälle bewältigen könnte und welche potenziellen Risiken und ethischen Probleme sich aus ihrer Verwendung ergeben, sagen die Forscher.

Depressionen kommen sehr häufig vor und viele Betroffene wenden sich zunächst an ihre Hausärzte, um Hilfe zu erhalten. Der empfohlene Behandlungsverlauf sollte sich weitgehend an evidenzbasierten klinischen Leitlinien orientieren, die in der Regel einen abgestuften Behandlungsansatz entsprechend der Schwere der Depression vorschlagen.

ChatGPT hat das Potenzial, schnelle, objektive, aus Daten abgeleitete Erkenntnisse zu liefern, die herkömmliche Diagnosemethoden ergänzen und Vertraulichkeit und Anonymität gewährleisten können, sagen die Forscher.

Sie wollten daher herausfinden, wie die Technologie im Vergleich zu 1249 französischen Hausärzten (73 % Frauen) den empfohlenen Therapieansatz bei leichten und schweren schweren Depressionen bewertet und ob dieser durch Geschlechter- oder soziale Klassenvorurteile beeinflusst wird.

Sie stützten sich auf sorgfältig entworfene und zuvor validierte Vignetten, die sich auf Patienten konzentrierten, die in den letzten drei Wochen Symptome wie Traurigkeit, Schlafprobleme und Appetitlosigkeit aufwiesen und bei denen eine leichte bis mittelschwere Depression diagnostiziert wurde.

Es wurden acht Versionen dieser Vignetten mit unterschiedlichen Variationen von Patientenmerkmalen wie Geschlecht, sozialer Klasse und Schweregrad der Depression entwickelt. Jede Vignette wurde für die ChatGPT-Versionen 3.5 und 4 zehnmal wiederholt.

Siehe auch  Apple entfernt Hunderte von ChatGPT-Apps!

Für jede der 8 Vignetten wurde ChatGPT gefragt: „Was sollte ein Hausarzt Ihrer Meinung nach in dieser Situation vorschlagen?“ Die möglichen Antworten waren: wachsames Warten; Überweisung zur Psychotherapie; verschriebene Medikamente (gegen Depressionen/Angstzustände/Schlafprobleme); Überweisung zur Psychotherapie plus verschriebene Medikamente; keine von diesen.

Nur etwas mehr als 4 % der Hausärzte empfahlen ausschließlich die Überweisung zur Psychotherapie bei milden Fällen entsprechend der klinischen Leitlinien, verglichen mit ChatGPT-3.5 und ChatGPT-4, die diese Option in 95 % bzw. 97,5 % der Fälle wählten.

Die meisten Ärzte schlugen entweder eine ausschließliche medikamentöse Behandlung (48 %) oder eine Psychotherapie plus verschriebene Medikamente (32,5 %) vor.

In schweren Fällen empfahlen die meisten Ärzte eine Psychotherapie plus verschriebene Medikamente (44,5 %). ChatGPT schlug dies häufiger vor als die Ärzte (72 % ChatGPT 3,5; 100 % ChatGPT 4 entsprechend den klinischen Leitlinien). Vier von zehn Ärzten schlugen ausschließlich verschriebene Medikamente vor, was in keiner der ChatGPT-Versionen empfohlen wurde.

Wenn Medikamente empfohlen wurden, wurden die künstlichen und menschlichen Teilnehmer gebeten, anzugeben, welche Arten von Medikamenten sie verschreiben würden.

Die Ärzte empfahlen in 67,5 % der Fälle eine Kombination von Antidepressiva und angstlösenden Medikamenten sowie Schlafmitteln, in 18 % die ausschließliche Einnahme von Antidepressiva und in 14 % die ausschließliche Einnahme von angstlösenden Mitteln und Schlafmitteln.

ChatGPT empfahl häufiger als die Ärzte ausschließlich Antidepressiva: 74 %, Version 3.5; und 68 %, Version 4. ChatGPT-3.5 (26 %) und ChatGPT-4 (32 %) schlugen außerdem vor, häufiger als die Ärzte eine Kombination aus Antidepressiva und angstlösenden Medikamenten sowie Schlaftabletten zu verwenden.

Aber im Gegensatz zu den Ergebnissen zuvor veröffentlichter Forschungsergebnisse wies ChatGPT bei der empfohlenen Behandlung keine geschlechtsspezifischen oder sozialen Klassenvorurteile auf.

Siehe auch  Ich habe ChatGPT nach einer Investition in Dogecoin gefragt

Die Forscher erkennen an, dass die Studie auf Iterationen von ChatGPT-3 und ChatGPT-4 zu bestimmten Zeitpunkten beschränkt war und dass die ChatGPT-Daten mit Daten einer repräsentativen Stichprobe von Hausärzten aus Frankreich verglichen wurden und daher möglicherweise nicht allgemeiner anwendbar sind .

Schließlich betrafen die in den Vignetten beschriebenen Fälle einen Erstbesuch aufgrund einer Depressionsbeschwerde und stellten daher keine laufende Behandlung der Krankheit oder anderer Variablen dar, die der Arzt über den Patienten wissen würde.

„ChatGPT-4 zeigte eine höhere Präzision bei der Anpassung der Behandlung an die klinischen Richtlinien. Darüber hinaus sind keine Vorurteile in Bezug auf Geschlecht und Geschlecht erkennbar [socioeconomic status] wurden in den ChatGPT-Systemen entdeckt“, betonen die Forscher.

Es seien jedoch ethische Fragen zu berücksichtigen, insbesondere im Hinblick auf die Gewährleistung des Datenschutzes und der Datensicherheit, die angesichts der Sensibilität von Daten zur psychischen Gesundheit äußerst wichtig seien, weisen sie darauf hin und fügen hinzu, dass KI niemals ein Ersatz für die klinische Beurteilung durch den Menschen bei der Diagnose sein sollte oder Behandlung von Depressionen.

Dennoch kommen sie zu dem Schluss: „Die Studie legt nahe, dass ChatGPT…. hat das Potenzial, die Entscheidungsfindung in der primären Gesundheitsversorgung zu verbessern.“

„Es unterstreicht jedoch die Notwendigkeit fortlaufender Forschung, um die Zuverlässigkeit seiner Vorschläge zu überprüfen. Die Implementierung solcher KI-Systeme könnte die Qualität und Unparteilichkeit der psychiatrischen Dienste verbessern.“


Haftungsausschluss: AAAS und EurekAlert! sind nicht verantwortlich für die Richtigkeit der auf EurekAlert veröffentlichten Pressemitteilungen! durch beitragende Institutionen oder für die Nutzung jeglicher Informationen über das EurekAlert-System.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein