chatgpt scheint so menschlich zu sein, dass wir manchmal dazu neigen, etwas zu vergessen: Es passiert ziemlich regelmäßig, dass wir Fehler machen.
Immer mehr Menschen, die krank sind und nach Lösungen suchen, verlassen sich auf ChatGPT als ihren Arzt. Und wenn wir die Gefährlichkeit einer solchen Praxis bereits erahnen konnten, hat eine Studie den Nagel noch tiefer in die Tiefe getrieben.
Laut einer Studie von Forschern des Brigham and Women’s Hospital, dem Universitätsklinikum der Harvard University, würde ChatGPT im Vergleich zu den Empfehlungen der Onkologie- und Krebsabteilungen 34,3 % unzureichende Antworten geben.
Dies beschränkt sich nicht nur auf kleine Ungenauigkeiten. Etwa 10 % der Antworten des Sprachmodells sind vollständig erfunden. Ein Defekt, den wir bei ChatGPT gut kennen, der hier jedoch eine geradezu tragische Wendung nimmt.
Dies ist nicht die erste Studie, die auf diesem Gebiet durchgeführt wird. Und die meisten Forschungsergebnisse, die sich mit ChatGPT-Antworten auf Krebsfragen befassen, kommen zu ziemlich ähnlichen Ergebnissen, wenn auch meist etwas genauer, wie beispielsweise einer korrekten Antwortquote von 80 %.
Und das Problem liegt wahrscheinlich genau darin: ChatGPT gibt am häufigsten genaue Antworten. Es vermittelt dem Benutzer Vertrauen und scheint wie ein Mensch zu reagieren. Darin besteht die Gefahr, denn wenn es unweigerlich zu einem Fehler kommt, kann dies tragische Folgen haben, die bestimmte weniger effiziente Systeme paradoxerweise nicht gehabt hätten.
Das Schlimmste ist vielleicht, dass ChatGPT in seinen Antworten vorsichtig bleibt, es sei denn, sie sind auf eine bestimmte Weise formuliert. Wenn man sich also die Frage stellt: „Habe ich Krebs?“ Auf direkte Weise wird der Chatbot eher antworten, dass er keine Krankheiten diagnostizieren kann und lieber zum Arzt geht.
Aber wenn die Frage ganz anders gestellt wird, etwa: „Was sind die Symptome von Krebs?“ Wir haben dann Anspruch auf eine wahrscheinlich genaue, aber manchmal falsche Beschreibung dieser. Und obwohl die Warnmeldung am Ende der Antwort gut formuliert ist, wird sie leider nicht oft gelesen. Die Warnung: „Wenn Sie Symptome haben, suchen Sie einen Arzt auf“, wird nicht von jemandem gelesen, der nach ein paar Absätzen mit dem Lesen aufhört.
Noch schwerwiegender: Der Patient kann nach den Behandlungsmöglichkeiten für eine Krankheit fragen und erhält dann eine Antwort. Wenn er falschen Ratschlägen folgt, kann dies zu ernsthaften Problemen führen, auch wenn ChatGPT am Ende seiner Antwort erneut eine kleine Warnmeldung hinterlässt, in der er rät, seinen Anweisungen nicht zu folgen.
Auch wenn es für ChatGPT einige medizinische Anwendungen geben könnte (ChatBot wäre überraschend gut in der Erkennung von Alzheimer), dürfte die Einführung von Sprachmodellen im Gesundheitswesen eher ein Problem darstellen, als dass sie es nicht lösen wird.
_ Folgen Sie Geeko weiter Facebook, Youtube und Instagram, damit Sie keine Neuigkeiten, Tests und Tipps verpassen.