[ad_1]

Laut einem der Autoren der Studie befürchteten die Forscher, dass ihre Studenten, normale Verbraucher und sogar Apotheker sich an chatgpt wenden würden, weil die Studie so beliebt ist, um „Fragen zu ihrer Gesundheit und ihren Medikamentenplänen zu klären“.

Geschrieben von Prerna Mittra | Aktualisiert: 11. Dezember 2023, 11:04 Uhr IST

Foto: Freepik

ChatGPT liegt derzeit voll im Trend, aber kann es alle medizinischen Fragen genau beantworten? ChatGPT wurde am 30. November 2022 eingeführt und ist eine von OpenAI entwickelte Software – oder ein Chatbot. Es basiert auf einem „großen Sprachmodell“, das es Benutzern ermöglicht, eine Konversation mit dem Chatbot zu absolut jedem gewünschten Thema, in jeder Länge, jedem Stil, jedem Format und jeder Sprache zu beginnen und zu steuern. Eine aktuelle Studie kam jedoch zu dem Schluss, dass es bei der Beantwortung spezifischer medizinischer Fragen möglicherweise nicht ganz so genau ist.

Laut a CNN Bericht stellten Forscher der Long Island University 39 medikamentenbezogene Fragen an die kostenlose Version des KI-Chatbots. Die Fragen stammten real vom Arzneimittelinformationsdienst des College of Pharmacy der Universität. Die Antworten von ChatGPT wurden später mit Antworten verglichen, die „von ausgebildeten Apothekern verfasst und überprüft“ wurden.

In der Studie wurde festgestellt, dass ChatGPT nur auf etwa 10 der gestellten Fragen „genaue Antworten“ lieferte. Bei den verbleibenden 29 Eingaben wurden die Antworten als „unvollständig oder ungenau“ befunden oder sie gingen nicht auf die Fragen ein, heißt es in dem Bericht. Die Ergebnisse wurden letzte Woche auf der Jahrestagung der American Society for Health-Systems Pharmacists in Anaheim, Kalifornien, vorgestellt.

Siehe auch  Das von ChatGPT verfasste Gesetz hat internationale Auswirkungen

Sara Grossman, außerordentliche Professorin für Pharmaziepraxis an der Long Island University und eine der Studienautorinnen, wurde als aussagekräftig zitiert CNN dass die Forscher aufgrund der großen Beliebtheit befürchteten, dass ihre Studenten, normale Verbraucher und sogar Apotheker sich an ChatGPT wenden würden, um „Fragen zu ihrer Gesundheit und ihren Medikamentenplänen zu untersuchen“.

Dem Bericht zufolge führten die Antworten auf die Fragen häufig zu „ungenauen oder sogar gefährlichen Antworten“. Grossman erklärte, dass ChatGPT in einem Fall auf die Frage nach der gemeinsamen Einnahme von zwei spezifischen Medikamenten – einem antiviralen Medikament gegen Covid-19 und einem blutdrucksenkenden Medikament – ​​geantwortet habe, dass diese beiden Medikamente bei gemeinsamer Einnahme keine „nachteiligen Auswirkungen“ hätten. Im Körper kommt es bei Patienten, die beide Medikamente einnehmen, in Wirklichkeit oft zu einem „starken Blutdruckabfall, der zu Schwindel und Ohnmacht führen kann“. Ärzte erstellen daher „patientenspezifische Pläne“, die eine Verringerung der Dosis des blutdrucksenkenden Medikaments oder „die Ermahnung der Person, langsam aus sitzender Position aufzustehen“ umfassen.

Anfang des Jahres hat ChatGPT die US-amerikanische Zulassungsprüfung bestanden. Die Gesundheitsseite hatte Zuvor wurde berichtet, dass Forscher herausgefunden haben, dass die intelligente Chatbox aus Fehlern lernt und sich selbst aktualisiert. Das bedeutet, dass die medizinische Suche auf ChatGPT genau wie bei einem Medizinstudenten von mehr Aufmerksamkeit und einer zunehmenden Benutzerinteraktion profitieren kann. Die andere Sache ist, dass die Chatbox gut mit Fachsprache funktioniert, was für einen Arzt nützlich klingen mag, für einen Laien jedoch schwierig sein kann, mit der komplexen medizinischen Fachsprache Schritt zu halten, sodass er Schwierigkeiten hat, die richtigen Antworten zu bekommen .

Siehe auch  Der ultimative ChatGPT-Leitfaden für die Jobsuche im Jahr 2024 | von Anish Singh Walia | Januar 2024

Zurück zur neuesten Studie: Als die Forscher den Chatbot aufforderten, wissenschaftliche Referenzen zur Unterstützung seiner Antworten anzugeben, konnte die Software dies angeblich nur für acht Fragen tun. Interessanterweise wurde auch festgestellt, dass ChatGPT „Referenzen fabrizierte“. „Die Antworten waren sehr professionell und raffiniert formuliert, und es schien, als könne dies zu einem Gefühl des Vertrauens in die Genauigkeit des Tools beitragen. Ein Benutzer, ein Verbraucher oder andere, die möglicherweise nicht in der Lage sind, etwas zu erkennen, können beeinflusst werden.“ durch den Anschein von Autorität“, wurde Grossman vielsagend zitiert CNN.

Total Wellness ist jetzt nur noch einen Klick entfernt.

FOLGE UNS AUF

[ad_2]

5/5 - (472 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein