Während chatgpt einen rasanten Aufstieg erlebt hat, der es zu einer der meistdiskutierten technischen Innovationen der letzten Zeit gemacht hat, gab es auch zahlreiche Kontroversen, von denen viele mit seiner Tendenz zur Weitergabe falscher Informationen zu tun haben. Es stellt sich heraus, dass eine Studie der Long Island University durchgeführt wurde enthüllt eine erschreckend hohe Falschantwortquote bei Fragen zu Arzneimitteln.

Dem Large Language Model-Chatbot wurden 39 Fragen zu verschiedenen Arzneimitteln und deren ordnungsgemäße Anwendung gestellt. Nachdem dies alles gesagt und nun geklärt ist, ist es wichtig anzumerken, dass der Chatbot bei etwa 74 % dieser Fragen, genauer gesagt bei 29, die falschen Antworten gab oder die Frage völlig ignorierte.

Als ChatGPT gebeten wurde, Zitate oder Referenzen für die von ihm bereitgestellten Informationen anzugeben, konnte dies nur bei etwa 8 der 39 Fragen erfolgen, sofern alle Aspekte berücksichtigt und berücksichtigt wurden. Ein solcher Trend ist besorgniserregend, da so etwas dazu führen könnte, dass ahnungslose Verbraucher möglicherweise falsche Informationen über die Medikamente erhalten, auf die sie sich verlassen, und die Wahrscheinlichkeit groß ist, dass diese Informationen größtenteils aus fremden Quellen stammen Teil.

Als ChatGPT beispielsweise nach den möglichen schädlichen Wechselwirkungen zwischen Paxlovid, einem antiviralen Mittel zur Behandlung von Covid-19, und einem Blutdruckmedikament namens Verapamil gefragt wurde, behauptete der Chatbot, dass keine derartigen Wechselwirkungen bestünden. Obwohl dies der Fall ist, kann die gleichzeitige Anwendung dieser beiden Medikamente zu einer Verstärkung der blutdrucksenkenden Wirkung von Verapamil führen.

Erwähnenswert ist, dass OpenAI die Verwendung von ChatGPT nicht für medizinische Zwecke empfiehlt und der Chatbot selbst schnell sagt, dass er kein Arzt sei, bevor er die von den Benutzern gewünschten Antworten liefert.

Siehe auch  ChatGPT übertrifft menschliche Ärzte bei der Behandlung von Depressionen: Studie

Ungeachtet dessen sind sich viele Verbraucher möglicherweise nicht darüber im Klaren, dass die Daten, die sie erhalten, nicht ganz genau sein werden und dass die Gefahren, die auftreten können, wenn sie auf die fehlerhaften Anweisungen von ChatGPT reagieren, das Potenzial haben, weitreichenden Schaden anzurichten. Es ist wichtig, die Verbraucher aufzuklären, damit sie die damit verbundenen Fallstricke besser verstehen.

Lesen Sie weiter: Wikipedia enthüllt seine meistgesuchten Artikel für 2023, während das Unternehmen den Meilenstein von 84 Milliarden Aufrufen feiert

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein