[ad_1]

11. September 2023

1 Minute gelesen

Offenlegung: Kung meldet keine relevanten finanziellen Offenlegungen. Die relevanten finanziellen Offenlegungen aller anderen Autoren finden Sie in der Studie.

Wir konnten Ihre Anfrage nicht bearbeiten. Bitte versuchen Sie es später noch einmal. Wenn dieses Problem weiterhin besteht, wenden Sie sich bitte an [email protected].

Die zentralen Thesen:

  • chatgpt 3.5 beantwortete 54,3 % der Fragen zur orthopädischen Ausbildungsprüfung richtig, was einem PGY-1-Niveau entspricht.
  • ChatGPT 4 beantwortete 76,6 % der Fragen richtig, was einem PGY-5-Niveau entspricht.

ChatGPT beantwortete 54,3 % der Fragen zur orthopädischen Ausbildungsprüfung richtig, eine Note, die den veröffentlichten Ergebnissen zufolge mit der Note eines orthopädischen Assistenzarztes im ersten Studienjahr übereinstimmt.

Forscher der Prisma Health-Midlands University of South Carolina School of Medicine analysierten die Leistung von ChatGPT Version 3.5 und Version 4 bei den orthopädischen Fortbildungsprüfungen 2020, 2021 und 2022 ohne Aufforderung. Sie verglichen den Prozentsatz der richtigen Antworten von ChatGPT mit dem nationalen Durchschnitt der Assistenzärzte für orthopädische Chirurgie auf jeder Postgraduiertenjahrstufe (PGY). Darüber hinaus musste ChatGPT einen Zeitschriftenartikel, ein Buch oder eine Website als verifizierte Quelle für seine Antwort angeben.

Ot0923Kung_Graphic_01
Die Daten stammen von Kung JE et al. JBJS Open Access. 2023; doi:10.2106/JBJS.OA.23.00056.

ChatGPT 3.5 beantwortete 196 von 360 Fragen (54,3 %) richtig, eine Note, die dem Durchschnitt von PGY-1-Bewohnern entspricht, und zitierte bei 47,2 % der Fragen eine überprüfbare Quelle mit einem durchschnittlichen mittleren Journal Impact Factor von 5,4.

Siehe auch  KI und Menschen arbeiten am ersten von ChatGPT entwickelten Roboter zusammen

ChatGPT 4 beantwortete 265 von 360 Fragen richtig (73,6 %), eine Note, die dem Durchschnitt der PGY-5-Bewohner entspricht und die bestandene Punktzahl von 67 % für die Teil-I-Prüfung des American Board of Orthopaedic Surgery übertrifft. ChatGPT 4 zitierte bei 87,9 % der Fragen eine überprüfbare Quelle mit einem durchschnittlichen Journal Impact Factor von 5,2.

„Aufgrund der sich schnell ändernden Standards von [artificial intelligence]ist es wichtig, dass orthopädische Chirurgen in die Integration einbezogen werden [artificial intelligence] in dieses Feld einzudringen und es in eine Position zu führen, in der es für eine hervorragende Patientenversorgung eingesetzt werden kann“, schreiben die Forscher in der Studie.

„ChatGPT zeigte vergleichbare Kenntnisse wie orthopädische Assistenzärzte und kann bei weiterer Weiterentwicklung möglicherweise in der orthopädischen medizinischen Ausbildung, der Patientenaufklärung und der klinischen Entscheidungsfindung eingesetzt werden“, schlussfolgerten sie.

[ad_2]

5/5 - (429 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein