In diesem Video, Athena Barrett Und Kristin G. Baldea, MD, heben wichtige Erkenntnisse aus der Veröffentlichung hervor: „Nutzung von chatgpt zur Beurteilung von Empfehlungsschreiben bei Anträgen auf eine Facharztausbildung in der Urologie: Bereit für die Hauptsendezeit?“ Barrett ist Medizinstudent an der Loyola University Chicago Stritch School of Medicine und Baldea ist Assistenzprofessorin für Chirurgie und Urologie an der Loyola Medicine in Chicago, Illinois.
Videotranskript:
Barrett: Was uns vor allem überraschte, war, dass ChatGPT uns zu diesem Zeitpunkt keine konsistenten Ergebnisse liefern konnte. Wir würden ChatGPT 1 Empfehlungsschreiben für 1 Bewerber zuführen, das von derselben Person verfasst wurde, und ihn bitten, es mit 0 bis 100 zu bewerten [and] Gib uns ein paar Adjektive. Und wir starteten einen neuen Chat, gaben ihm genau dieselbe Eingabeaufforderung und denselben Brief und stellten fest, dass es Diskrepanzen mit dem gab, was ChatGPT uns geben konnte. Daher ist es schwierig, den wissenschaftlichen Artikel zu veröffentlichen, wenn die Daten nicht reproduzierbar sind. Aber ich denke, dass es an sich schon interessant ist zu wissen, wozu ChatGPT jetzt in der Lage ist, denn ich glaube, dass es in Zukunft konsistenter sein und für die Datenanalyse verwendet werden kann.
Eimer: Das andere, worüber ich überrascht war, ist, dass ich von der Idee gelesen habe, dass ChatGPT Halluzinationen haben kann, was die Bezeichnung dafür ist, wenn es Dinge nur erfindet. Aber ich war überrascht, in welchem Ausmaß das mit einer scheinbar recht einfachen Aufgabe gelang. Wenn wir mehrere Briefe auf einmal eingegeben und ChatGPT gebeten haben, sie zu vergleichen, war das nicht in der Lage, dies zu tun, und hat sie tatsächlich gemischt und Bewerber zusammengestellt, die sich nicht gemeldet haben. In dieser Hinsicht war es also wirklich nicht nützlich.
Diese Transkription wurde aus Gründen der Klarheit bearbeitet.