Anzeige

In einer neuen Studie übertraf künstliche Intelligenz in Form von chatgpt einen erfahrenen Nasenchirurgen bei der Beantwortung präoperativer und postoperativer Patientenfragen im Zusammenhang mit Nasenoperationen. Laut der in veröffentlichten Studie erhielt ChatGPT deutlich bessere Bewertungen in Bezug auf Genauigkeit, Vollständigkeit und Gesamtqualität Plastische Gesichtschirurgie und ästhetische Medizin.

Kay Durairaj, MD, und Omer Baker, aus Pasadena, Kalifornien, Dario Bertossi, MD, von der University of Verona, Steven Dayan, MD, von der University of Illinois, Chicago, Kian Karimi, MD, aus Los Angeles, Kalifornien, Roy Kim, MD , aus San Francisco, Kalifornien, Sam Most, MD, von der Stanford University, Enrico Robotti, MD, aus Bergamo, Italien, und Frand Rosengaus, MD, aus Mexiko-Stadt, berichteten, dass ChatGPT den Antworten von Ärzten mit überwältigender Mehrheit vorgezogen wurde, wobei die Bewerter ChatGPT bevorzugten 80,95 % der Fälle. Ihre Ergebnisse werden in dem Artikel mit dem Titel „Künstliche Intelligenz versus Experte für plastische Chirurgie: Vergleichsstudie zeigt, dass ChatGPT Nasenkorrekturberatungen gewinnt: Sollten wir uns Sorgen machen?“ vorgestellt.

„Unsere Ergebnisse zeigten, dass ChatGPT eine bemerkenswerte Fähigkeit zeigte, effektiv auf eine breite Palette von Patientenfragen zu reagieren, die Optik wie nicht-chirurgische Behandlungsoptionen und Anweisungen zur postoperativen Pflege umfassten“, erklärten die Forscher. „In den meisten Fällen schnitt ChatGPT auf oder über dem Niveau eines erfahrenen Nasenkorrekturchirurgen ab.“

Online-Tools wie ChatGPT machen künstliche Intelligenz (KI) oder große Sprachmodelle (LLM) mit großer Begeisterung der Öffentlichkeit zugänglich. Um unseren Patienten und der gesamten medizinischen Gemeinschaft bestmöglich zu dienen, müssen wir auf den angemessenen Einsatz dieser Technologien achten. Es ist erstaunlich, KI-generierte Inhalte zu lesen, die im Schreibstil von Hemingway oder Dostojewski verfasst wurden. Es liegt weiterhin in unserer Verantwortung, Patienten über gelegentlich unzutreffende Aussagen in KI-generierten Inhalten zu informieren. Wir können beide anerkennen, dass die meisten unserer Patienten KI nutzen werden, und unsere Bemühungen darauf konzentrieren, die Integrität unserer Patientenaufklärungs- und Beratungspraktiken aufrechtzuerhalten.“

Travis T. Tollefson, MD, MPH, Plastische Gesichtschirurgie und ästhetische Medizin Chefredakteur, Universität von Kalifornien, Davis

5/5 - (326 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein