Seit der Popularisierung des Chat-Roboters chatgpt nutzen ihn viele Menschen im Lern- und Arbeitsumfeld. Einige Unternehmen haben auch damit begonnen, ChatGPT in ihre Dienste zu integrieren, wodurch künstliche Intelligenz nach und nach in unser Leben Einzug hält. Allerdings kann ChatGPT nicht alles bewältigen und es kann 100 % Vertrauen gegeben werden. Ein kürzlich in einer medizinischen Fachzeitschrift veröffentlichter Forschungsbericht weist darauf hin, dass der von ChatGPT bereitgestellte Krebsbehandlungsplan voller Fehler und Auslassungen ist.

Fast ein Drittel der Informationsfehler

Vor einigen Tagen veröffentlichte das Journal of American Medical Association Oncology einen Bericht von Forschern des Brigham and Women’s Hospital der Harvard Medical School, in dem darauf hingewiesen wurde, dass der von ChatGPT bereitgestellte Krebsbehandlungsplan zahlreiche Lücken aufweist und keinen Bezug hat Wert. Ein Drittel der Antworten zu Krebsfällen und Behandlungsmöglichkeiten erwiesen sich als überhaupt falsch.

Für Experten ist die Unterscheidung schwierig

Das Tödlichste daran ist, dass ChatGPT richtige und falsche Informationen vermischt und es dadurch für Benutzer schwieriger wird, zu unterscheiden, welche Informationen korrekt und zuverlässig sind. Dr. Danielle Bitterman, die an der Untersuchung beteiligt war, wies direkt darauf hin, dass die von ChatGPT generierten Antworten einen hohen Grad an Mischung aus richtigen und falschen Informationen aufweisen, der ein Ausmaß erreicht hat, bei dem es für Experten schwierig ist, Probleme zu finden. Es ist erwähnenswert, dass OpenAI, das ChatGPT entwickelt hat, in seinen Nutzungsbedingungen angibt, dass das Modell nicht für die Bereitstellung medizinischer Informationen gedacht ist und auch nicht zur Diagnose oder Behandlung schwerwiegender Erkrankungen verwendet werden sollte. Das von OpenAI geleitete Entwicklungsteam für künstliche Intelligenz erklärte einmal, dass die zukünftige Entwicklung die Zuverlässigkeit von Antworten auf künstliche Intelligenz verbessern werde, um die „Illusion“ des Modells zu vermeiden.

Siehe auch  Dr. ChatGPT: Die Vor- und Nachteile künstlicher Intelligenz in medizinischen Konsultationen | Wissenschaft und Technik

Quelle:Geschäftseingeweihter

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein