Die verrückte Jahreszeit

Wir befinden uns mitten in der sogenannten „albernen Jahreszeit“ oder zumindest früher so. Der Oxford Englisch Wörterbuch (OED) definiert es als „eine Zeitspanne (typischerweise im Spätsommer und Frühherbst), in der Zeitungen (und andere Medien) oft über triviales Material berichten, weil es an wichtigeren Nachrichten mangelt.“1 Das Wörterbuch fügt hilfreich einen Kommentar hinzu, der den Ursprung des Begriffs erklärt: „Im Vereinigten Königreich ist der angebliche Mangel an wichtigen Nachrichten eine Folge der Sommerpause des Parlaments im August und September sowie ähnlicher Pausen in anderen Institutionen.“ Auf der Südhalbkugel wird der Begriff auf die Weihnachts- und Neujahrsferienzeit angewendet.“

Der Begriff gelangte in den 1860er Jahren in die Sprache. Es wurde sogar einmal vermutet, dass der Mangel an echten Nachrichten während des Sommerlochs Medizinern die Gelegenheit gab, für ihre neuesten Heilmittel zu werben, was Journalisten möglicherweise dazu überreden könnte, Kolumnenzoll zu geben. Ein solcher Vorschlag war die Verwendung von Meerwasserinjektionen, die, so hieß es, bei der Behandlung von Gastroenteritis, Anämie, Ekzemen, Psoriasis, Hautgeschwüren, Syphilis, Tuberkulose, Kinderlähmung, Chorea und exophthalmischem Kropf hilfreich sein könnten. Die Länge der Liste sagt etwas über die wahrscheinliche Wirksamkeit aus. Der Redakteur in Das Krankenhaus Der Autor, der 1911 darüber schrieb, bediente sich von Wörtern wie „Clap-Trap“, „schädlich“, „lächerlich“ und „unsinnig“.2

Heutzutage mangelt es jedoch das ganze Jahr über nicht an wichtigen Nachrichten, und die Vorstellung einer schlechten Jahreszeit erscheint überflüssig. Dennoch werden weiterhin und das ganze Jahr über alberne Nachrichten gemeldet.

chatgpt

Ohne den Eindruck zu erwecken, dass dieser Abschnitt auf natürliche Weise an den vorherigen anschließt, stelle ich fest, dass in den letzten Monaten eine nicht unerhebliche Menge an Nachrichten verschiedenen Formen der künstlichen Intelligenz (KI) gewidmet wurde, insbesondere den generativen vortrainierten Transformatoren oder GPTs und insbesondere ChatGPT.

Während ich die potenzielle medizinische Bedeutung der verschiedenen Arten von Programmen für künstliche Intelligenz erkenne, erkenne ich auch Probleme.3 Und ich bin nicht davon überzeugt, dass ChatGPT ein Stück KI ist, auf das wir uns in irgendeiner Weise verlassen sollten.

ChatGPT ist kostenlos – geben Sie die entsprechende URL in die Betreffzeile ein und die Website wird angezeigt. Auf der Homepage werden einige seiner Funktionen, Beispiele für einige Fragen, die Sie ihm stellen könnten, und einige seiner Einschränkungen aufgeführt. Der erste Punkt in dieser letzten Liste lautet: „Kann gelegentlich falsche Informationen generieren.“ Man kann nicht sagen, dass man nicht gewarnt wurde.

Auf Anregung eines Kollegen habe ich zum Beispiel gefragt: „Erzählen Sie mir etwas über Jeff Aronson.“ Es war nicht unangemessen, zu antworten: „Welcher Jeff Aronson?“ Ich habe Oxford angegeben. Es gab mir mehrere Informationen, von denen etwa die Hälfte falsch war. So wurde mir zum Beispiel mitgeteilt, dass ich einen pharmakologischen Preis gewonnen habe. Gute Nachrichten, sollte man meinen. Es gab nur zwei Probleme mit dieser Information: Ich hatte den Preis nicht gewonnen und tatsächlich existiert der Preis nicht. Das Programm hatte eine genaue Information über mich erfasst und in Fake News umgewandelt.

Als nächstes angeregt durch den Auftritt in der letztjährigen Weihnachtsausgabe von Der BMJ eines Kreuzworträtsels,4 Auch wenn dieses Problem kaum von besonderem medizinischem Interesse war, beschloss ich zu prüfen, ob ChatGPT das Problem lösen könnte. Ich begann damit, es selbst zu lösen. Es hat ungefähr 10 Minuten gedauert, war also nicht sehr schwer und ich hatte erwartet, dass ChatGPT ganz gut abschneiden würde. Das war nicht der Fall.

Siehe auch  Carrefour arbeitet mit ChatGPT zusammen, um seinen Kunden das Einkaufen zu erleichtern

Nach ein paar falschen Antworten gelang es, 10 Across zu lösen: „Android verliert möglicherweise Energie bei zufälligem Neustart (5).“ Die Antwort, ROBOT, ist ein Anagramm von „reboot“ abzüglich des Buchstabens e für Energie. ChatGPT gab die richtige Antwort, aber ihre Erklärung war nicht überzeugend: „Android ist vielleicht ein Hinweis auf das Wort ‚Roboter‘, da ein Android eine Art Roboter ist.“ „Energie verlieren“ bedeutet, dass wir die Buchstaben entfernen müssen [sic] für „Energie“ aus dem Wort. „In zufälligem Neustart“ deutet darauf hin, dass wir die verbleibenden Buchstaben auf zufällige Weise neu anordnen müssen. Wenn wir „Energie“ aus „Roboter“ entfernen, bleiben uns die Buchstaben „robt“. [sic].‘ Wenn wir diese Buchstaben zufällig neu anordnen, erhalten wir „Roboter“, was die Antwort auf den Hinweis ist.“ Die richtige Antwort, aber eine fragwürdige Erklärung.

ChatGPT hat auch 18 Across gelöst: „In Leicestershire ist es kalt (3).“ Die Antwort, ICE, verbirgt sich im Wort „Leicestershire“, einem einfachen Standard-Kreuzverbal-Drop. Aber die Antwort von ChatGPT war eigenartig: „It’s cold ist ein Hinweis darauf, dass die Antwort mit etwas Kaltem zusammenhängt.“ „in Leicestershire“ bedeutet, dass wir die Anfangsbuchstaben von „Leicestershire“ verwenden müssen, nämlich „L“, „e“ und „s“. Wenn wir alles zusammennehmen, erhalten wir „Eis“, also etwas Kaltes, das zum Hinweis passt.“

Insgesamt hat ChatGPT 12 der 33 Hinweise richtig beantwortet, die Begründung jedoch in keinem Fall richtig erklärt. Es wurden auch nicht immer Antworten in der angegebenen Länge gegeben. Als Antwort auf den Hinweis „Eine Annahme ohne Bedeutung wird sinnlos ausgearbeitet – hm (4,10)“ wurde beispielsweise „Worum geht es?“ als Antwort angeboten, begleitet von einer langen falschen Argumentation. Die Antwort lautet NULLHYPOTHESE, ein Anagramm von „sinnlos huh“ und der erforderlichen Länge.

Nun könnte man es für unfair halten, von ChatGPT eine gute Leistung bei kryptischen Hinweisen zu erwarten. Warum sollte es schließlich die eigenartige, oft sehr anspielungsreiche Sprache verstehen, die Kreuzworträtsel-Compiler verwenden? Woher sollte es beispielsweise wissen, dass anderswo „Round Fare“ eine kryptische Definition von BAGEL war? Oder „Stocktaker“ eine kryptische Definition von RUSTLER? Oder dass ein Fluss als Blume (also etwas, das fließt) oder als Ufer (also etwas mit Ufern) bezeichnet werden kann?

Also habe ich ihm stattdessen ein Allgemeinwissensrätsel gegeben Die Sunday Times, in der Erwartung, dass es besser wird. Zuerst habe ich alle 50 Hinweise gegeben. 33 davon wurden richtig gelöst und ich habe sie ausgefüllt und die falschen Antworten ignoriert. Dann habe ich nachgeholfen – ich habe ihm noch einmal die anderen 17 Hinweise gegeben, dieses Mal jeweils den Anfangsbuchstaben, sofern dieser durch Gegenprüfung der Antworten verfügbar war. Danach wiederholte ich die Hinweise, die es nicht gelöst hatte, und gab ihm alle verfügbaren Kreuzungsbuchstaben. Ich habe das so lange gemacht, bis es keine Lösung mehr gab und sechs Hinweise ungelöst blieben. Wir hatten dann ein Gespräch.

Siehe auch  Hier erfahren Sie, wie Sie KI-Chatbots wie ChatGPT verwenden

In einem Fall sagte ich ihm, dass eine seiner Antworten falsch sei und forderte ihn auf, eine andere zu finden. Es schwankte ständig zwischen denselben zwei falschen Antworten, von denen keine zu den von mir gegebenen Informationen passte und von denen eine sogar die falsche Länge hatte. Hier ist sein letztes Angebot: „Ich entschuldige mich für die Verwirrung. Vielen Dank für den Hinweis auf den Fehler. Die richtige Antwort auf den Hinweis „Ein System oder Plan, der verwendet wird, wenn keine andere Vereinbarung getroffen werden kann (8)“ ist „Fallback“. Der erste Buchstabe ist B, der dritte Buchstabe ist C, der fünfte Buchstabe ist K, der siebte Buchstabe ist C und der letzte Buchstabe ist K. Ich entschuldige mich für die Frustration, die durch meine früheren falschen Antworten verursacht wurde.“ Die Buchstaben, die es berichtete, stammten zu einem gewissen Grad aus den Buchstaben, die ich ihm gegeben hatte, B, C, S und O, und stammten aus der richtigen Antwort, BACKSTOP. Und jedes Mal, wenn die Antwort falsch war, entschuldigte es sich für die Verwirrung.

ChatGPT hat es nicht nur versäumt, einige der Hinweise zu lösen. Es gab zwei beunruhigende Aspekte in der Art und Weise, wie es Erklärungen für seine falschen Lösungen lieferte.

Erstens sein dogmatisches Beharren auf der Richtigkeit seiner Lösungen. Beispielsweise wurde auf den kryptischen Hinweis „Dieses griechische Zeichen ist in Sequenz (3) zu hören“ die falsche Antwort PHI angeboten. Darin heißt es: „Der Hinweis ist ein Wortspiel mit dem Klang des griechischen Buchstabens ‚Phi‘, der wie ‚Gebühr‘ ausgesprochen wird.“ Der Ausdruck „wird nacheinander gehört“ bedeutet, dass die Buchstaben „P“, „H“ und „I“ in der richtigen Reihenfolge angeordnet werden sollten, sodass „Phi“ entsteht.“ Dann wird die Frage gestellt: „Gibt es alternative Antworten zum vorherigen Hinweis?“ ?“, antwortete es. „Es ist möglich, dass ein anderes Wort gefunden werden könnte, das ebenfalls zum Hinweis passt, aber ‚Phi‘ scheint die einfachste und offensichtlichste Antwort zu sein.“ Aber gab es mögliche Alternativen? Es bot PSI an, „einen weiteren griechischen Buchstaben, der als ‚Seufzer‘ gehört werden konnte und dessen Klang dem von ‚Sequenz‘ ähnelt.“ Außerdem wurde ZED angeboten, mit der Aussage: „Der griechische Buchstabe ‚eta‘ klingt wie ‚ate‘, und wann.“ kombiniert mit den Buchstaben in ‚s‘ und ‚zee‘ ergibt die Antwort ‚Zed‘.“ Dann schlug es XI vor: „ein weiterer griechischer Buchstabe, der als ‚Seufzer‘ gehört werden könnte, ähnlich wie ‚Psi‘.“ Der Hinweis könnte dahingehend interpretiert werden, dass die Buchstaben „P“, „H“ und „I“ in einer Reihenfolge angeordnet werden sollten, die wie „Seufz“ klingt, was durch Umordnen der Buchstaben zu „Xi“ erreicht werden kann. Der einzige griechische Buchstabe, den es nicht vorschlug, war der richtige: RHO, ein Homophon von ROW, einer Folge.

Die Antworten von ChatGPT auf die verschiedenen Hinweise, die ich ihm gegeben habe, zeigen ein zweites beunruhigendes Merkmal. Nicht nur, dass die Antworten oft falsch waren. Selbst wenn die Antworten richtig waren, waren die Erklärungen völlig übertrieben, einschließlich der Erklärungen zu den richtigen Lösungen für die Fragen zum Allgemeinwissen. Hier sind einige Beispiele für Behauptungen, die es machte, als ich ihm andere Rätsel gab, wörtlich zitiert:

Siehe auch  Amazon bittet KI-Ingenieure um die Entwicklung einer ChatGPT-ähnlichen Suche

• Wenn wir „OP“ zu „sausage“ hinzufügen, erhalten wir „OPsausage“, ein Anagramm von „firelight“;

• Wenn wir „deer“ in „stream“ einfügen, erhalten wir „SIDEARM“;

• Die Buchstaben von „old firm“ können zu „India“ umgestellt werden;

• Die Buchstaben, aus denen das Lösungswort „Veranden“ besteht, sind in der Phrase „Bodenbelag in Kolonnade“ enthalten.

Eine Differentialdiagnose

Ich finde ChatGPT nicht einfach nur albern. Es scheint große kognitive Schwierigkeiten zu haben.

Alle darin enthaltenen Fehlinformationen werden im KI-Jargon als Halluzinationen bezeichnet. Und ihre Halluzinationen erinnern an das, was Eugen Bleuler 1916 in seinem Lehrbuch der Psychiatrie als Konfabulationen bezeichnete5:

“Den Gedächtnisillusionen gegenüberzustellen sind die Gedächtnistäuschungen, die ohne Anknüpfung an ein wirkliches Erlebnis ein Gedächtnisbild frei schaffen, d. h. einem Phantasiebild Wirklichkeitswert verleihen, die Gedächtnishalluzinationen (im engeren Sinne, denn eigentlich verdienen die Konfabulationen diesen Namen auch). Hier könnte es sich um eine Art parafunktioneller Schaffung von Engrammen handeln. Objektiv sind es Vorstellungen mit dem Timbre des Erlebten der Erinnerung.”

[Memory illusions are to be contrasted with memory deceptions, which readily create a memory image unconnected to any real experience, i.e. they give a fantasy image reality, in other words they are memory hallucinations (in the narrower sense, because actually confabulations also deserve this name). Objectively, they represent ideas with the quality of something experienced or of something remembered.]

Die moderne Interpretation von Konfabulation ist der Vorgang, verlorene Erinnerungen durch falsche Erinnerungen oder durch wahre, aber unangemessene Erinnerungen zu ersetzen. In ChatGPT werden Erinnerungen durch das Wissen repräsentiert, mit dem sie gefüttert wurden. Da die notwendigen Informationen fehlen, nimmt es alles, woran es sich „erinnert“, und interpretiert es falsch, was zu Konfabulationen führt.

Bei Schizophrenie kommt es zu Konfabulationen, die möglicherweise mit einer abnormalen dopaminergen Funktion zusammenhängen.6 Es wurde auch über eine unerwünschte Wirkung von Arzneimitteln wie Ketoconazol berichtet.7 Nalidixinsäure,8 und psychedelische Drogen,9 und bei verschiedenen Formen der Drogenabhängigkeit,10 einschließlich der mit Alkoholismus verbundenen Demenz11 (das Korsakow-Syndrom12) und gelegentlich bei anderen Erkrankungen wie Epilepsie, Hirntumoren, Parkinson-Krankheit, Migräne und Schlaganfall der rechten Hemisphäre.13 Es kann bei einigen Formen der Alzheimer-Krankheit auftreten,14 obwohl ChatGPT, dessen Verhalten oft etwas kindlich wirkt, sicherlich zu jung ist, um darunter zu leiden.

Es gibt jedoch einen ähnlichen Zustand, mit dem Konfabulation nicht verwechselt werden sollte – Pseudologia Fantastica oder Mythomanie. Hierbei handelt es sich um eine Form der pathologischen Lüge, ähnlich der narzisstischen Persönlichkeitsstörung, die offenbar bei manchen Politikern auftritt. Dabei handelt es sich um eine Fantasie, an die das Individuum wirklich glaubt, wenn auch nur für einen Moment, und bereit ist, sie aufzugeben, wenn es ihm präsentiert wird gegenteilige Beweise. Dies passt zu der Art und Weise, wie ChatGPT sich bereitwillig für seine Fehler entschuldigt und alternative Erklärungen anbietet, obwohl die Beharrlichkeit, die es auch bei falschen Überzeugungen zeigt, nicht ganz typisch ist.

Pseudologia Fantastica gehört zu einer Trias von Merkmalen, die das Münchhausen-Syndrom charakterisieren, die anderen sind Wanderbewegung und Krankheitssimulation.15 Könnte ChatGPT eine Form des Münchhausen-Syndroms haben?

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein