• Russo GI, di Mauro M, Cocci A, Cacciamani G, Cimino S, Serefoglu EC, et al. Beratung von „Dr. google“ bei sexueller Dysfunktion: eine zeitgenössische weltweite Trendanalyse. Int J Impot Res. 2020;32:455–61.

    Artikel CAS PubMed Google Scholar

  • Razdan S, Siegal AR, Brewer Y, Sljivich M, Valenzuela RJ. Beurteilung der Fähigkeit von chatgpt, Fragen im Zusammenhang mit erektiler Dysfunktion zu beantworten: Können unsere Patienten ihm vertrauen? Int J Tax Res. 2023. https://doi.org/10.1038/s41443-023-00797-z.

  • Singhal K, Azizi S, Tu T, Mahdavi SS, Wei J, Chung HW, et al. Große Sprachmodelle kodieren klinisches Wissen. Natur. 2023;620:172–80.

    Artikel CAS PubMed PubMed Central Google Scholar

  • Huo B, Cacciamani GE, Collins GS, McKechnie T, Lee Y, Guyatt G. Berichtsstandards für die Verwendung großer sprachmodellgebundener Chatbots für Gesundheitsberatung. Nat Med. 2023;29:2988.

    Artikel CAS PubMed Google Scholar

  • Momenaei B, Wakabayashi T, Shahlaee A, Durrani AF, Pandit SA, Wang K, et al. Angemessenheit und Lesbarkeit der von ChatGPT-4 generierten Antworten für die chirurgische Behandlung von Netzhauterkrankungen. Ophthalmol Retin. 2023;7:862–8.

    Artikel Google Scholar

  • Pan A, Musheyev D, Bockelman D, Loeb S, Kabarriti AE. Bewertung der Antworten von Chatbots mit künstlicher Intelligenz auf die am häufigsten gesuchten Fragen zum Thema Krebs. JAMA Oncol. 2023;9:1437–40.

    Artikel PubMed Google Scholar

  • Pandiya A. Lesbarkeit und Verständlichkeit von Einverständniserklärungen für klinische Studien. Perspektive Clin Res. 2010;1:98–100.

    PubMed PubMed Central Google Scholar

  • Cocci A, Pezzoli M, Lo Re M, Russo GI, Asmundo MG, Fode M, et al. Qualität der Informationen und Angemessenheit der ChatGPT-Ausgaben für urologische Patienten. Prostatakrebs Prostatadis. 2023. https://doi.org/10.1038/s41391-023-00754-3

  • Nutzungsrichtlinien: OpenAI; 2023 [updated March 23, 2023. Available from: https://openai.com/policies/usage-policies.

    Siehe auch  „ChatGPT, du machst mir Angst“ – Tech-Experten geben zu, dass Joe Rogan über Sicherheitslücken aufgrund von KI entsetzt ist
  • Davis R, Eppler M, Ayo-Ajibola O, Loh-Doyle JC, Nabhani J, Samplaski M, et al. Evaluating the effectiveness of artificial intelligence-powered large language models application in disseminating appropriate and readable health information in urology. J Urol. 2023;210:688–94.

    Article  PubMed  Google Scholar 

  • Eppler MB, Ganjavi C, Knudsen JE, Davis RJ, Ayo-Ajibola O, Desai A, et al. Bridging the gap between urological research and patient understanding: the role of large language models in automated generation of Layperson’s summaries. Urol Pract. 2023;10:436–43.

    Article  PubMed  Google Scholar 

  • Huynh LM, Bonebrake BT, Schultis K, Quach A, Deibert CM. New artificial intelligence ChatGPT performs poorly on the 2022 Self-assessment study program for urology. Urol Pract. 2023;10:409–15.

    Article  PubMed  Google Scholar 

  • Baumgartner C, Baumgartner D. A regulatory challenge for natural language processing (NLP)-based tools such as ChatGPT to be legally used for healthcare decisions. where are we now? Clin Transl Med. 2023;13:e1362.

    Article  PubMed  PubMed Central  Google Scholar 

  • Cacciamani GE, Chen A, Gill IS, Hung AJ. Artificial intelligence and urology: ethical considerations for urologists and patients. Nat Rev Urol. 2023. https://doi.org/10.1038/s41585-023-00796-1.

  • Meskó B, Topol EJ. The imperative for regulatory oversight of large language models (or generative AI) in healthcare. NPJ Digit Med. 2023;6:120.

    Article  PubMed  PubMed Central  Google Scholar 

  • 5/5 - (336 votes)
    Anzeige

    Kommentieren Sie den Artikel

    Bitte geben Sie Ihren Kommentar ein!
    Bitte geben Sie hier Ihren Namen ein