chatgpt website displayed on a phone screen are seen in this illustration photo taken in Krakow, Poland on August 2, 2023.“/>
Der Chatbot für künstliche Intelligenz ChatGPT war eine der meistdiskutierten Technologien des Jahres.
Jakub Porzycki/NurPhoto über Getty Images
  • Studie kommt zu dem Ergebnis, dass ChatGPT falsche Angaben gemacht hat, als es darum gebeten wurde, Krebsbehandlungspläne zu entwerfen.
  • Der Chatbot vermischte richtige und falsche Informationen, was die Entschlüsselung erschwerte.
  • Aufgrund von Genauigkeitsproblemen bei der generativen KI ist es unwahrscheinlich, dass sie in absehbarer Zeit die Ärzte ablösen wird.

ChatGPT mag die Welt im Sturm erobern – doch eine neue Studie legt nahe, dass es einen Schlüsselbereich gibt, in dem es in absehbarer Zeit wahrscheinlich nicht zum Einsatz kommen wird.

Forscher am Brigham and Women’s Hospital – einem Lehrkrankenhaus der Harvard Medical School in Boston, Massachusetts – fanden heraus, dass die vom revolutionären Chatbot von OpenAI erstellten Krebsbehandlungspläne voller Fehler waren.

Entsprechend die Studiedas in der Zeitschrift JAMA Oncology veröffentlicht wurde und ursprünglich von berichtet wurde Bloomberg – Bei der Aufforderung, Behandlungspläne für verschiedene Krebsfälle zu erstellen, enthielt ein Drittel der Antworten des großen Sprachmodells falsche Informationen.

Die Studie stellte außerdem fest, dass der Chatbot dazu neigte, richtige und falsche Informationen zu vermischen, sodass es schwierig war, die richtigen Informationen zu erkennen. Von insgesamt 104 Anfragen enthielten etwa 98 % der Antworten von ChatGPT mindestens eine Behandlungsempfehlung, die den Richtlinien des National Comprehensive Cancer Network entsprach, heißt es in dem Bericht.

Die Autoren waren „beeindruckt von dem Ausmaß, in dem falsche Informationen mit korrekten Informationen vermischt wurden, was es besonders schwierig machte, Fehler zu erkennen – selbst für Experten“, sagte Co-Autorin Dr. Danielle Bitterman gegenüber Insider.

Siehe auch  ChatGPT und die Modelleisenbahn: eine Erkundung

„Große Sprachmodelle sind darauf trainiert, Antworten zu geben, die sehr überzeugend klingen, aber sie sind nicht darauf ausgelegt, genaue medizinische Ratschläge zu geben“, fügte sie hinzu. „Die Fehlerquote und die Instabilität der Antworten sind kritische Sicherheitsprobleme, die im klinischen Bereich angegangen werden müssen.“

ChatGPT wurde über Nacht zu einer Sensation, als es im November 2022 startete und 100 Millionen aktive Nutzer erreichte zwei Monate nach seinem Debüt. Der Chatbot löste eine Eile zu investieren in KI-Unternehmen und eine intensive Debatte über die langfristigen Auswirkungen künstlicher Intelligenz; Untersuchungen von Goldman Sachs ergaben, dass dies Auswirkungen auf 300 Millionen Arbeitsplätze weltweit haben könnte.

Trotz des Erfolgs von ChatGPT sind generative KI-Modelle immer noch anfällig für „Halluzinationen“, bei denen sie selbstbewusst Informationen präsentieren, die irreführend oder völlig falsch sind. Bekanntlich ist Googles ChatGPT-Rivale Bard 120 Milliarden Dollar vernichtet Der Aktienwert des Unternehmens sank, als es eine ungenaue Antwort auf eine Frage zum James Webb-Weltraumteleskop gab.

Bemühungen, KI in das Gesundheitswesen zu integrieren, vor allem um Verwaltungsaufgaben zu rationalisieren, sind bereits im Gange. Anfang dieses Monats ergab eine große Studie, dass der Einsatz von KI dazu beiträgt Screening auf Brustkrebs war sicher und deutete darauf hin, dass es die Arbeitsbelastung der Radiologen fast halbieren könnte.

Ein Informatiker in Harvard hat kürzlich herausgefunden, dass GPT-4, die neueste Version des Modells, dies könnte Bestehen Sie die US-amerikanische Zulassungsprüfung mit Bravour – und deutete an, dass es über ein besseres klinisches Urteilsvermögen verfügte als einige Ärzte.

Dennoch ist es aufgrund von Genauigkeitsproblemen bei generativen Modellen wie ChatGPT unwahrscheinlich, dass sie in absehbarer Zeit die Ärzte ersetzen werden.

Siehe auch  Wenden Sie ChatGPT an, um den Inhalt von Webseiten zu optimieren und den SEO-Effekt zu verbessern!Melden Sie sich jetzt für kostenlose Kurse im August im Asia Network an

Der JAMA-Studie fanden heraus, dass 12,5 % der Antworten von ChatGPT „halluziniert“ waren und dass der Chatbot am wahrscheinlichsten falsche Informationen präsentierte, wenn er nach einer lokalisierten Behandlung fortgeschrittener Krankheiten oder einer Immuntherapie gefragt wurde.

OpenAI hat dies anerkannt ChatGPT kann unzuverlässig sein. Die Firmen Nutzungsbedingungen warnen, dass ihre Modelle nicht für die Bereitstellung medizinischer Informationen konzipiert sind und nicht dazu verwendet werden sollten, „Diagnose- oder Behandlungsdienste für schwerwiegende Erkrankungen bereitzustellen“.

OpenAI reagierte nicht sofort auf die Bitte von Insider um einen Kommentar.

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein