Laut einer neuen Studie reagieren Chatbots wie chatgpt auf die Emotionen ihrer Nutzer.
Tatsächlich reagieren die Systeme besser, wenn Benutzer ihnen emotionale Aufforderungen geben.
Die Forscher, zu denen auch Vertreter von Microsoft gehörten, stellen fest, dass allgemein anerkannt wird, dass große Sprachmodelle wie ChatGPT als Schritt in Richtung künstlicher allgemeiner Intelligenz oder eines Systems angesehen werden, das auf dem gleichen Niveau wie ein Mensch lernen könnte.
Aber sie sagten, dass einer der Hauptgründe, die sie zurückhalten, ihr Mangel an emotionaler Intelligenz sei. „Das Verstehen und Reagieren auf emotionale Signale verschafft dem Menschen einen deutlichen Vorteil bei der Problemlösung“, stellen die Forscher in einer Arbeit fest online gestellt.
Um zu verstehen, ob diese Modelle emotionale Reize verstehen können, verwendeten die Forscher verschiedene Systeme, um zu sehen, wie sie in Tests der emotionalen Intelligenz abschneiden. Sie verwendeten ChatGPT und GPT-4 sowie andere Systeme wie Metas Llama 2.
Sie gaben ihm Formulierungen, die die Wichtigkeit der Aufgabe betonten, z. B. indem sie ihm sagten, dass die Aufgabe für die Karriere seines Benutzers wichtig sei oder dass er stolz auf seine Arbeit sein sollte. Sie gaben ihm auch andere Aufforderungen, die es dazu bringen sollten, sich selbst zu hinterfragen, beispielsweise die Frage, ob es sich seiner Antworten sicher sei.
Die Forscher bezeichnen diese Ausdrücke als „EmotionPrompts“ und basieren auf einer Reihe psychologischer Theorien. Einige förderten die „Selbstüberwachung“, indem sie sie beispielsweise nach ihrem eigenen Selbstvertrauen fragten, während andere die sozialkognitive Theorie mit Ermutigungen wie „Entschlossen bleiben“ nutzten.
Diese Aufforderungen funktionierten, fanden die Forscher heraus. Durch ihren Einsatz steigerte sich die Leistung der Systeme bei generativen Aufgaben deutlich: Sie seien im Durchschnitt um 10,9 Prozent besser, gemessen an Leistung, Wahrhaftigkeit und Verantwortung, schreiben die Autoren.
Das Papier kommt zu dem Schluss, dass noch viel Geheimnis darüber bleibt, wie die emotionalen Impulse funktionieren. Sie sagen, dass mehr Arbeit geleistet werden sollte, um zu verstehen, wie die Psychologie mit großen Sprachmodellen interagiert.
Sie stellen außerdem fest, dass die Reaktion auf emotionale Reize zwischen großen Sprachmodellen und Menschen unterschiedlich ist, da Studien nicht darauf hindeuten, dass Menschen ein besseres Denken oder bessere kognitive Fähigkeiten haben, wenn ihnen einfach mehr emotionale Reize gegeben werden. „Das Geheimnis hinter dieser Divergenz ist immer noch unklar, und wir überlassen es zukünftigen Arbeiten, den tatsächlichen Unterschied zwischen der emotionalen Intelligenz von Menschen und LLMs herauszufinden“, schließen die Forscher.
Ein Artikel, der die Ergebnisse beschreibt, „Große Sprachmodelle verstehen und können durch emotionale Reize verbessert werden“, ist veröffentlicht auf ArXiv.