KI-Bild von Karl Carver

chatgpt hat Millionen mit seinen eloquenten Antworten und seinem überzeugenden Fachwissen zu praktisch jedem erdenklichen Thema fasziniert.

Da sein kometenhafter Aufstieg jedoch unvermindert anhält, müssen wir uns fragen:

Ist dies der Beginn einer KI-gestützten Utopie … oder stürzen wir uns kopfüber in eine High-Tech-Dystopie voller Fehlinformationen und potenziell tödlicher Folgen?

Ein besorgniserregendes neue Studie zeigt, dass der medizinische Rat von ChatGPT oft unvollständig oder einfach falsch ist. Als Forscher der Long Island University dem Chatbot Fragen zu Medikamenten aus dem wirklichen Leben stellten, waren seine Antworten in schockierenden 75 % der Fälle ungenau.

In einem Fall wurde behauptet, dass die Kombination eines antiviralen Medikaments mit einem Blutdruckmedikament sicher sei, obwohl diese Mischung in Wirklichkeit einen gefährlichen Blutdruckabfall verursachen könnte. Wir sprechen hier von einer Szene direkt aus der „Ich bin gefallen und kann nicht aufstehen“-Werbespots.

Noch besorgniserregender ist, dass die hinterlistige KI, als die Forscher ChatGPT baten, seine zweifelhaften medizinischen Behauptungen durch die Angabe wissenschaftlicher Quellen zu untermauern, schlicht und einfach Verweise auf legitim klingende Studien fabrizierte, die einfach nicht existieren. Es ist, als würde man von einem Pokerprofi beim Bluffen mit nichts als einer Handvoll Uno-Karten erwischt.

Wie sind wir hierher gekommen?

In unserer Eile, dieses magische Orakel anzunehmen, vergaßen wir die Weisheit von Morpheus: Der Schein kann täuschen. Wir ignorierten die kleine Stimme, die flüsterte: Wenn etwas zu schön erscheint, um wahr zu sein, ist es das wahrscheinlich auch.

Siehe auch  Das südkoreanische Unternehmen Naver führt generative KI-Dienste ein, um mit ChatGPT zu konkurrieren

Jetzt stehen wir am Rande eines rutschigen Abhangs, unter dem unbekannte Gefahren lauern.

Doch vielleicht sollten wir uns nicht wundern.

OpenAI weist eindeutig darauf hin, dass ihre Technologie nicht als „Diagnose- oder Behandlungsdienste für schwerwiegende Erkrankungen“ verwendet werden sollte.

Dennoch tendiert ChatGPT dazu, überzeugende und keine wissenschaftlich fundierten Antworten zu generieren. Seine silberne Zunge hat keine Ahnung vom Edikt des hippokratischen Eides, „zuerst keinen Schaden anzurichten“. Für eine KI gibt es keine Konsequenzen für die reale Welt, sondern nur das ewige Streben, menschenähnliche Texte zu produzieren.

Was lehrt uns diese warnende Geschichte?

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein