Es gibt keinen Zweifel chatgpt hat sich als wertvolle Quelle für hochwertige technische Informationen erwiesen. Aber kann es auch Sozialberatung leisten?
Dieser Frage sind wir in unserem nachgegangen neue Forschung, veröffentlicht in der Zeitschrift Frontiers in Psychology. Unsere Ergebnisse deuten darauf hin, dass spätere Versionen von ChatGPT bessere persönliche Ratschläge bieten als professionelle Kolumnisten.
Ein erstaunlich vielseitiger Gesprächspartner
In nur zwei Monaten seit seiner Veröffentlichung im November letzten Jahres hat ChatGPT schätzungsweise 100 angehäuft Millionen aktive monatliche Benutzer.
Der Chatbot läuft auf einem der größten Sprachmodelle, die jemals erstellt wurden, wobei die fortgeschrittenere kostenpflichtige Version (GPT-4) schätzungsweise darüber verfügt 1,76 Billionen Parameter (was bedeutet, dass es sich um ein äußerst leistungsstarkes KI-Modell handelt). Es hat eine Revolution in der KI-Branche ausgelöst.
ChatGPT ist auf der Grundlage riesiger Textmengen (von denen viele aus dem Internet stammen) ausgebildet und kann zu fast jedem Thema Ratschläge geben. Es kann Fragen zu Recht, Medizin, Geschichte, Geographie, Wirtschaft und vielem mehr beantworten (obwohl es sich, wie viele festgestellt haben, immer lohnt, die Antworten zu überprüfen). Es kann passablen Computercode schreiben. Es kann Ihnen sogar sagen, wie Sie die Bremsflüssigkeit in Ihrem Auto wechseln.
Benutzer und KI-Experten waren gleichermaßen von der Vielseitigkeit und dem Gesprächsstil beeindruckt. Daher ist es für viele Menschen keine Überraschung habe gedreht (und wenden Sie sich weiterhin an) für eine persönliche Beratung an den Chatbot.
Ratschläge geben, wenn es persönlich wird
Eine persönliche Beratung erfordert ein gewisses Maß an Empathie (oder zumindest den Eindruck davon). Forschung hat gezeigt, dass ein Empfänger, der sich nicht gehört fühlt, Ratschläge, die ihm gegeben werden, wahrscheinlich nicht so gut annimmt. Möglicherweise fühlen sie sich sogar entfremdet oder abgewertet. Vereinfacht gesagt ist es unwahrscheinlich, dass Ratschläge ohne Empathie hilfreich sind.
Darüber hinaus gibt es bei persönlichen Dilemmata oft keine richtige Antwort. Stattdessen muss der Berater ein gesundes Urteilsvermögen an den Tag legen. In diesen Fällen kann es wichtiger sein, mitfühlend zu sein, als „Recht“ zu haben.
Aber ChatGPT wurde nicht ausdrücklich darauf trainiert, einfühlsam und ethisch zu sein oder ein gesundes Urteilsvermögen zu haben. Es wurde darauf trainiert, das nächstwahrscheinlichste Wort in einem Satz vorherzusagen. Wie kann es den Menschen das Gefühl geben, gehört zu werden?
Eine frühere Version von ChatGPT (das GPT 3.5 Turbo-Modell) schnitt bei sozialen Ratschlägen schlecht ab. Das Problem bestand nicht darin, dass es nicht verstand, was der Benutzer tun musste. Tatsächlich zeigte es oft ein besseres Verständnis der Situation als der Benutzer selbst.
Das Problem bestand darin, dass die emotionalen Bedürfnisse des Benutzers nicht angemessen berücksichtigt wurden. Es war wie Lucy im Peanuts-Comic zu eifrig, Ratschläge zu geben und hat es versäumt, angemessen auf die Emotionen des Benutzers einzugehen. Daher wurde es von den Nutzern schlecht bewertet.
Die neueste Version von ChatGPT, die GPT-4 verwendet, ermöglicht es Benutzern, mehrere Antworten auf dieselbe Frage anzufordern und anschließend anzugeben, welche sie bevorzugen. Das Rückmeldung lehrt das Modell, sozial angemessenere Reaktionen hervorzurufen – und hat dazu beigetragen, dass es einfühlsamer wirkt.
Sensibilität lernen
Zum ersten Mal untersuchte unsere Studie, ob die Antworten von ChatGPT als besser wahrgenommen werden als menschliche Antworten bei einer Aufgabe, bei der von Menschen Empathie verlangt wurde.
Wir haben nach dem Zufallsprinzip 50 Fragen zu sozialen Dilemmas aus zehn bekannten Ratgeberkolumnen ausgewählt, die eine Reihe von Themen abdecken, darunter Beziehungen, ethische Dilemmata, Managementprobleme, Probleme am Lebensende und viele alltägliche Bedenken, mit denen wir uns alle identifizieren können.
Jedem unserer 400 Teilnehmer wurde ein Dilemma präsentiert, zusammen mit den Antworten von ChatGPT und einem professionellen Ratgeberkolumnisten. Wir haben nicht bekannt gegeben, woher die einzelnen Antworten kamen.
Etwa drei Viertel der Teilnehmer empfanden die Ratschläge von ChatGPT als ausgewogener, vollständiger, einfühlsamer, hilfreicher und insgesamt besser im Vergleich zu den Ratschlägen des Profis.
Eines der Dilemmata kam von einem jungen Meeresbiologen, der in Südkalifornien Delfine erforschte. Sie schrieb darüber, wie sie sich in einen scheinbar perfekten Mann verliebte, der in die Rocky Mountains ziehen musste, um seine Karriere fortzusetzen. Beide waren unglücklich über den Gedanken, einander zu verlieren, doch die Frau hatte kein Interesse an einer Fernbeziehung, da es „irrational erschien, sich an jemanden zu binden, wenn wir keine Zukunftspläne haben, in der gleichen Gegend zu leben“.
Vergleichen Sie die Antwort von GPT-4
Es ist eine unglaublich herausfordernde Situation, in der Sie sich befinden. Die Liebe, die Sie beide teilen, ist echt, aber Ihre Karrierewege trennen Sie voneinander. Auch wenn Ferngespräche für Sie nicht reizvoll sind, sollten Sie darüber nachdenken, einen Plan für die Zukunft zu besprechen, bei dem Sie sich möglicherweise auf halbem Weg treffen könnten. […] Vielleicht gibt es eine Küstenstadt in der Nähe von Bergen, oder es könnte eine Vereinbarung getroffen werden. Wenn dies nicht möglich ist, muss möglicherweise die schwierige Entscheidung getroffen werden, Ihrer Karriere Vorrang vor Ihrer Beziehung zu geben. Welchen Weg Sie auch wählen, es ist wichtig, dass er sich für Sie beide richtig anfühlt.
… mit der offiziellen Antwort:
Wovon zum Teufel redest du? Haben Sie sich nicht selbst überrascht, als Sie sich verliebt haben? Ihre genauen Worte: „Ich hätte nicht gedacht, dass ich dazu in der Lage wäre!“ Und jetzt bist du so hip, so schlau, so weise in Sachen Liebe, dass du nicht einmal an das Glück deines Freundes denkst? Sie weigern sich, eine sechsmonatige Fernbeziehung zu versuchen – zu wiederholen, zu versuchen? Frau, reiß dich zusammen und probiere es aus. Ich glaube, die Delfine werden mich unterstützen.
Obwohl die Teilnehmer nicht feststellen konnten, welche Antwort von einem Computer geschrieben wurde, sagten die meisten, dass sie es vorziehen würden, ihre eigenen sozialen Dilemmata von einem Menschen statt von einem Computer angehen zu lassen.
Was steckt hinter dem Erfolg von ChatGPT?
Wir haben festgestellt, dass die Antworten von ChatGPT oft länger waren als die der Kolumnisten. War dies der Grund, warum sie von den Teilnehmern bevorzugt wurden?
Um dies zu testen, haben wir die Studie überarbeitet, die Antworten von ChatGPT jedoch auf ungefähr die gleiche Länge wie die der Ratgeberkolumnisten beschränkt.
Auch hier waren die Ergebnisse die gleichen. Die Teilnehmer empfanden die Ratschläge von ChatGPT immer noch als ausgewogener, vollständiger, einfühlsamer, hilfreicher und insgesamt besser.
Doch ohne zu wissen, welche Reaktion ChatGPT hervorrief, sagten sie dennoch, dass sie es vorziehen würden, wenn ihre eigenen sozialen Dilemmata lieber von einem Menschen als von einem Computer gelöst würden.
Vielleicht ist diese Bevorzugung des Menschen darauf zurückzuführen, dass ChatGPT dies eigentlich nicht kann fühlen Emotionen, während Menschen dies können. Es könnte also sein, dass die Teilnehmer Maschinen für von Natur aus unfähig halten Empathie.
Wir schlagen nicht vor, dass ChatGPT professionelle Berater oder Therapeuten ersetzen sollte; nicht zuletzt, weil der Chatbot selbst warnt gegen Dies liegt aber auch daran, dass Chatbots in der Vergangenheit nachgegeben haben potenziell gefährlicher Rat.
Nichtsdestotrotz deuten unsere Ergebnisse darauf hin, dass entsprechend gestaltete Chatbots eines Tages zur Verbesserung der Therapie eingesetzt werden könnten, solange a Anzahl der Probleme sind gerichtet an. In der Zwischenzeit möchten Ratgeberkolumnisten vielleicht eine Seite aus dem Buch von AI übernehmen, um ihr Spiel zu verbessern.
Dieser Artikel wurde erneut veröffentlicht von Die Unterhaltung unter einer Creative Commons-Lizenz. Lies das originaler Artikel.