Maschinen und Theorie des Geistes: chatgpt kann ein guter Assistent für einen Psychotherapeuten sein

Die KI lernt nach und nach, Emotionen zu erkennen und unsere Absichten zu erraten.

Wenn Sie ChatGPT jemals Ihr Herz ausgeschüttet haben und die Schwierigkeiten Ihres Lebens mit uns geteilt haben, haben Sie die Antworten des Chatbots wahrscheinlich als sehr tröstlich empfunden. Die neuesten Modelle der künstlichen Intelligenz sind erstaunlich in ihrer Fähigkeit, menschenähnliche Reaktionen zu erzeugen, die ein Gefühl des Verständnisses und der Empathie hervorrufen. Ihre „Empathie“ hat in der Psychotherapie-Gemeinschaft bereits große Aufmerksamkeit erregt, und viele Experten spekulieren darüber, ob KI-Systeme in therapeutischen Sitzungen unterstützend wirken können.

Im Zentrum dieses Phänomens steht die „Theorie des Geistes“ – eine grundlegende kognitive Fähigkeit, die es Menschen ermöglicht, die Gedanken, Absichten und emotionalen Zustände anderer zu erkennen und zu interpretieren. Dank der Theorie des Geistes können wir uns an die Stelle unseres Gesprächspartners versetzen, den Untertext seiner Worte erfassen und feststellen, ob er ironisch ist, lügt oder sich über etwas aufregt.

In einem innovativen Forschung veröffentlicht in der renommierten Fachzeitschrift Nature Human Behavior, wollten Wissenschaftler des Universitätsklinikums Hamburg-Eppendorf herausfinden, ob die KI-Modelle hinter Systemen wie ChatGPT in der Lage sind, die Erfahrungen anderer Menschen auf ähnliche Weise wie Menschen zu entschlüsseln.

Zu diesem Zweck verwendeten die Forscher eine Reihe etablierter Tests in der Psychologie, die speziell darauf ausgelegt sind, verschiedene Aspekte der Theorie des Geistes einer Person zu bewerten. Diese Tests umfassten Aufgaben zum Verstehen falscher Überzeugungen, zum Erkennen von Ironie, zum Erkennen von Subtexten, zum Erkennen sozialer Patzer (Situationen, in denen jemand etwas Unangemessenes sagt oder tut) und andere.

Siehe auch  OpenAI setzt auf Sicherheit, um ChatGPT Enterprise zu verkaufen

In den Experimenten verglichen die Wissenschaftler zwei führende Familien von KI-Sprachmodellen, darunter die GPT-Serie von OpenAI mit dem GPT-4-Modell, das ChatGPT zugrunde liegt, und LLaMA 2 von Meta* mit mehr als 1.900 Personen. Probanden, sowohl Menschen als auch KI-Systeme, wurden gebeten, die mentalen Einstellungen fiktiver Charaktere anhand textueller Beschreibungen sozialer Situationen zu bewerten.

Die Ergebnisse waren beeindruckend und zeigten, dass moderne Sprachmodelle erhebliche Fortschritte bei der Nachahmung bestimmter Aspekte gemacht haben. So zeigte GPT-4 im Ironie-Erkennungstest Ergebnisse, die sogar denen des Menschen überlegen waren. Und bei der Aufgabe, soziale Patzer zu erkennen, übertraf das LLaMA-2-Modell sowohl den durchschnittlichen Menschen als auch GPT-4 und zeigte eine Genauigkeit von fast 100 %.

In einer Reihe von Testszenarien zeigte die künstliche Intelligenz immer noch Schwächen, was auf die Grenzen ihres „Verstehens“ der kontextuellen Komponente der Situation hinweist. Beispielsweise gaben die Algorithmen bei einer Falschglaubensaufgabe, bei der vorhergesagt werden musste, wo eine fiktive Figur nach einem Objekt suchen würde, nachdem sie es bewegt hatte, oft falsche Antworten, selbst wenn die Aufgabenbedingungen geringfügig geändert wurden.

Auch gelang es KI-Systemen nicht immer, soziale Versäumnisse in Situationen zu erkennen, deren korrekte Interpretation die Berücksichtigung des breiteren sozialen Kontexts und allgemein anerkannter Verhaltensnormen erforderte, die in der Problemstellung nicht explizit erläutert wurden.

Laut den Autoren der Studie lassen sich KI-Fehler in solchen Fällen dadurch erklären, dass moderne Sprachmodelle kein tiefes Verständnis für gesellschaftliche Konventionen haben und die kognitiven Prozesse von Menschen nicht vollständig nachbilden, sondern nur einige ihrer Erscheinungsformen nachahmen basierend auf Statistiken.

Wissenschaftler haben jedoch betont, wie wichtig der Einsatz verschiedener psychologischer und neurokognitiver Tests ist, wenn es darum geht, das Innenleben der KI zu untersuchen. Solche Tools helfen dabei, die Denkalgorithmen dieser Systeme besser zu verstehen und ihre Stärken und Schwächen zu identifizieren, was uns wiederum die Entwicklung sichererer, zuverlässigerer und ethischerer Lösungen ermöglichen wird.

Siehe auch  Der neue Code-Interpreter von ChatGPT weist eine riesige Sicherheitslücke auf und ermöglicht es Hackern, Ihre Daten zu stehlen

Abschließend stellten die Forscher fest: Eine vollwertige „künstliche Theorie des Geistes“, die die kognitiven Fähigkeiten des Menschen vollständig imitiert, bleibt derzeit nur eine Idee. Die Ergebnisse der Arbeit zeigen jedoch, dass diese Idee dank kontinuierlicher Fortschritte in naher Zukunft Wirklichkeit werden kann. Die Entwicklung ausgefeilterer Systeme mit fortgeschrittenen sozial-kognitiven Fähigkeiten könnte neue Horizonte in verschiedenen Bereichen eröffnen, darunter Psychotherapie und Mensch-Maschine-Kommunikation.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein