[ad_1]

Patienten und Ärzte sollten sich nicht zu sehr darauf verlassen chatgpt„>ChatGPT von OpenAI für Ratschläge zur Krebsbehandlung, wie eine neue Studie zeigt, dass die beliebte Technologie der künstlichen Intelligenz (KI) häufig falsche und richtige Informationen miteinander verknüpft, was ihre Empfehlungen unzuverlässig macht.

Forscher aus Brigham and Women’s Hospital, Teil der Mass General Brigham Ziel des Gesundheitssystems war es, die Einschränkungen von ChatGPT bei der Empfehlung von Krebsbehandlungen aufzuzeigen. Die Ergebnisse, veröffentlicht in JAMA Onkologiehaben gezeigt, dass der KI-Chatbot oft Empfehlungen gibt, die nicht mit etablierten Leitlinien übereinstimmen, was Bedenken hinsichtlich der Zuverlässigkeit seiner Ratschläge nicht nur für Krebsbehandlungen, sondern möglicherweise auch für andere medizinische Fragen aufkommen lässt.[1]

Mitverfasser Danielle Bitterman, MDvon dem Abteilung für Radioonkologie am Brigham and Women’s Hospital und am Programm für künstliche Intelligenz in der Medizin (AIM). von Mass General Brigham warnte davor, dass die Antworten von ChatGPT zwar maßgeblich und fast menschlich wirken, die Technologie jedoch keine Ergänzung für einen tatsächlichen Arzt darstellt.

„Patienten sollten sich in der Lage fühlen, sich über ihren Gesundheitszustand zu informieren, aber sie sollten immer mit einem Arzt sprechen und Ressourcen im Internet sollten nicht isoliert konsultiert werden“, sagte Bitterman in einem freigeben. „ChatGPT-Antworten können sehr menschlich klingen und sehr überzeugend sein. Aber wenn es um die klinische Entscheidungsfindung geht, gibt es so viele Feinheiten für die individuelle Situation jedes Patienten. Eine richtige Antwort kann sehr differenziert sein und nicht unbedingt etwas, was ChatGPT oder ein anderes großes Sprachmodell bieten kann.“

In der Studie wurde insbesondere die Einhaltung von ChatGPT bewertet Nation Comprehensive Cancer Care Network (NCCN) Leitlinien für die Behandlung der drei häufigsten Krebsarten: Brust-, Prostata- und Lungenkrebs. Die Forscher forderten ChatGPT auf, Behandlungsempfehlungen basierend auf unterschiedlichen Schweregraden der Erkrankung abzugeben.

Siehe auch  Wird KI den Tod von Kochbüchern bedeuten? Wir haben ChatGPT einem Rezepttest unterzogen

Von den insgesamt 104 Anfragen enthielten etwa 98 % der Antworten von ChatGPT mindestens einen Behandlungsansatz, der den NCCN-Richtlinien entsprach. Erschwerend kam jedoch hinzu, dass 34 % dieser Antworten auch Empfehlungen enthielten, die von den Leitlinien abwichen oder nicht mit anderen Empfehlungen übereinstimmten, sodass es für Benutzer nahezu unmöglich war, richtige Ratschläge von falschen Vorschlägen zu unterscheiden.

[ad_2]

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein