Laut einer neuen Studie ist ChatGPT möglicherweise ein nützliches Tool für grundlegende Gesundheitsfragen, aber es ist auch ein ziemlich starres Antworttool, das bei komplexeren Fragen Probleme bereitet.
Immer mehr Senioren akzeptieren die Rolle künstlicher Intelligenz im Gesundheitswesen, insbesondere als Informationsinstrument. Aber das macht die Möglichkeit falscher Antworten nur noch besorgniserregender.
Die Studie ergab, dass die Genauigkeit von ChatGPT durch das Hinzufügen von Fakten zu einer Eingabeaufforderung beunruhigenderweise um 17 % verringert wurde.
ChatGPT konnte nicht nur bestimmte, kompliziertere Fragen nicht richtig oder angemessen beantworten, sondern das Modell gab auch unterschiedliche Antworten auf dieselbe Frage, wenn sie etwas anders formuliert waren Bericht sagte.
Auch das Hinzufügen einer „unsicheren“ Option zusätzlich zu „Ja“ oder „Nein“ verringerte die Genauigkeit von ChatGPT erheblich.
Die Autoren der Studie haben darauf geachtet, die Ergebnisse nicht als Beweis dafür zu charakterisieren, dass ChatGPT oder KI nicht nützlich sind, sondern vielmehr, dass mehr Arbeit geleistet werden muss, um ihren Nutzen in Situationen zu verfeinern, in denen zu viel auf dem Spiel steht, als dass falsche oder unvollständige Antworten möglich wären Norm.
„Große Sprachmodelle scheinen zunehmend für Informationssuchaufgaben eingesetzt zu werden“, so die Autoren der Studie schrieb. „Wenn solche Aufgaben wichtige gesundheitsbezogene Entscheidungen beeinflussen (z. B. welche Behandlung zu ergreifen ist), dann ist es von größter Bedeutung, dass wir diese Modelle besser verstehen. Ein Verständnis dieser Aspekte trägt sowohl dazu bei, potenzielle Schäden zu mindern als auch bei der Entwicklung besserer Modelle zu helfen.“
Die besorgniserregenden Ergebnisse sind Teil eines aktuellen Forschungsmusters, das sich mit den aktuellen Einschränkungen der KI befasst.
Es wurde beispielsweise gezeigt, dass KI-Modelle gefährliche Fehler machen, wenn sie Entlassungsnotizen aus Krankenhäusern zusammenfassen. McKnights kürzlich berichtet.
Führungskräfte im Gesundheitswesen haben gewarnt, dass aktuelle KI-Tools nicht „wissen“, wann sie auf der Grundlage voreingenommener Daten trainiert werden, und nicht wissen, wann sie Antworten katalogisieren sollen, die möglicherweise als ungenau gelten.