Die Forscher haben das emotionale Bewusstsein von chatgpt, dem Chatbot, der in natürlicher Sprache kommunizieren kann, anhand einer Skala von 20 Fragen gemessen. ChatGPT zeigte im Vergleich zu Menschen eine überlegene Fähigkeit, Emotionen in fiktiven Szenarien zu beschreiben.

Chatgpt
Chatgpt Zeigt Ein Größeres Emotionales Bewusstsein Als Menschen © Envato

ChatGPT ist ein mittlerweile berühmter Chatbot, der in der Lage ist, sich in natürlicher Sprache zu unterhalten und Fragen zu verschiedenen Themen zu beantworten. Es basiert auf einem fortschrittlichen künstlichen Sprachmodell, GPT 3.5 (und GPT 4 in der kostenpflichtigen Version), das von OpenAI entwickelt wurde. Wenn es aus großen Textdatenmengen lernt (in seiner Datenbank verfügbar bis 2021), er versteht nicht wirklich, was er sagt.

Dennoch nutzen viele Menschen ChatGPT, um über ihre persönlichen Probleme zu sprechen. Einige frühere Studien haben gezeigt, dass Chatbots als kognitive Verhaltenstherapeuten fungieren können, mit (manchmal) ermutigenden Ergebnissen. Dies ist der Fall einer im Mai veröffentlichten Studie mit dem Titel ChatGPT übertrifft Menschen bei der Bewertung des emotionalen Bewusstseins.

Wie ChatGPT ein größeres emotionales Bewusstsein als Menschen demonstrierte

Um ein guter Therapeut zu sein, muss man auf jeden Fall Sie müssen über ein gutes emotionales Bewusstsein verfügen. Emotionales Bewusstsein ist die Fähigkeit, die eigenen Emotionen und die anderer zu erkennen, zu verstehen und zu respektieren. Dazu gehört es, sich der eigenen Gefühle und emotionalen Zustände bewusst zu sein und einfühlsam gegenüber den Emotionen zu sein, die andere durch ihre verbalen und nonverbalen Signale zum Ausdruck bringen.

Gießen Messen Sie das emotionale Bewusstsein von ChatGPTverwendeten Forscher die Skala Ebenen des emotionalen Bewusstseins. Es enthält 20 offene Fragen, die fiktive Situationen beschreiben, die voller Emotionen sind (wie Wut, Angst, Glück oder Traurigkeit). ChatGPT musste beschreiben, wie sich ein Mensch in einer bestimmten Situation fühlen würde.

Siehe auch  Aufstieg und Zukunftspotenzial von ChatGPT: Wichtige Erkenntnisse aus dem ZapConnect 2023-Interview von OpenAI-CEO Sam Altman | von MissGorgeousTech | Das ABC der KI | September 2023

Chatbot-Antworten wurden anhand des Standardhandbuchs für diese Skala bewertet und mit den Ergebnissen von verglichen 750 französische Teilnehmer im Alter von 17 bis 84 Jahren (durchschnittlich 33 Jahre) aus einer anderen Studie. Die Forscher bewerteten das emotionale Bewusstsein von ChatGPT zweimal, einmal im Januar und erneut im Februar 2023.

Chatgpt Nicht Erkennbar
Chatgpt Nicht Erkennbar
© Ao

Das zeigten die Ergebnisse ChatGPT hatte deutlich bessere Ergebnisse als Frauen und Männer bei der ersten Auswertung. Beim zweiten Versuch hatte ChatGPT seine Leistung weiter verbessert. Er hatte erhalten der Partituren, die Nur wenige Menschen in der Gesamtbevölkerung hatten die Grenze überschritten. Schließlich bewerteten zwei zugelassene Psychologen die Genauigkeit der emotionalen Bewusstseinsreaktionen von ChatGPT und stellten fest, dass sie sehr genau sind.

Der Schwerpunkt der Studie lag jedoch auf Textsituationen und dem Erkennen der wahrscheinlichsten Emotionen in fiktiven Situationen. Etwas ganz anderes als das Erkennen von Emotionen in der realen Welt. Die vollständige Studie finden Sie hier Hier.

In Bezug auf die körperliche Gesundheit sagen einige Forscher, dass man sich bei medizinischen Fragen nicht auf ChatGPT verlassen sollte, obwohl der Chatbot die Krankheit eines Vierjährigen korrekt diagnostizierte, nachdem 17 Ärzte versagt hatten.

5/5 - (388 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein