Dieser Artikel wurde von Science X überprüft redaktionellen Prozess Und Richtlinien. Herausgeber haben die folgenden Attribute hervorgehoben und gleichzeitig die Glaubwürdigkeit des Inhalts sichergestellt:

faktengeprüft

vertrauenswürdige Quelle

Korrekturlesen

chatgpt-acts-more-a.jpg“ srcset=“https://scx1.b-cdn.net/csz/news/800w/2024/qa-chatgpt-acts-more-a.jpg?f=webp 800w“ layout=“responsive“ width=“1280″ height=“848″ alt=“Q&A: ChatGPT acts more altruistically, cooperatively than humans“>
„Big Five“-Persönlichkeitsprofile von ChatGPT-4 und ChatGPT-3 im Vergleich zur Verteilung menschlicher Probanden. Die blauen, orangefarbenen und grünen Linien entsprechen den mittleren Werten von Menschen, ChatGPT-4 bzw. ChatGPT-3; Die schattierten Bereiche stellen die mittleren 95 % der Bewertungen für jede Dimension dar. Die Persönlichkeitsprofile von ChatGPT liegen im Bereich der menschlichen Verbreitung, auch wenn ChatGPT-3 in der Offenheit deutlich schlechter abschneidet. Kredit: Verfahren der Nationalen Akademie der Wissenschaften (2024). DOI: 10.1073/pnas.2313925121

× schließen

„Big Five“-Persönlichkeitsprofile von ChatGPT-4 und ChatGPT-3 im Vergleich zur Verteilung menschlicher Probanden. Die blauen, orangefarbenen und grünen Linien entsprechen den mittleren Werten von Menschen, ChatGPT-4 bzw. ChatGPT-3; Die schattierten Bereiche stellen die mittleren 95 % der Bewertungen für jede Dimension dar. Die Persönlichkeitsprofile von ChatGPT liegen im Bereich der menschlichen Verbreitung, auch wenn ChatGPT-3 in der Offenheit deutlich schlechter abschneidet. Kredit: Verfahren der Nationalen Akademie der Wissenschaften (2024). DOI: 10.1073/pnas.2313925121

Moderne künstliche Intelligenz wie ChatGPT ist in der Lage, menschliches Verhalten nachzuahmen, erstere hat jedoch positivere Ergebnisse wie Kooperation, Altruismus, Vertrauen und Gegenseitigkeit.

In einer neuen Studie der University of Michigan veröffentlicht im Verfahren der Nationalen Akademie der Wissenschaftenverwendeten Forscher „Verhaltens“-Turing-Tests – die die Fähigkeit einer Maschine testen, menschenähnliche Reaktionen und Intelligenz zu zeigen –, um die Persönlichkeit und das Verhalten einer Reihe von KI-Chatbots zu bewerten.

Die Tests umfassten die Beantwortung psychologischer Umfragefragen durch ChatGPT und das Spielen interaktiver Spiele. Die Forscher verglichen die Entscheidungen von ChatGPT mit denen von 108.000 Menschen aus mehr als 50 Ländern.

Siehe auch  Die Google-Tochter DeepMind will ein neuronales Netzwerk schaffen, das effizienter sein soll als ChatGPT

Der Hauptautor der Studie, Qiaozhu Mei, Professor an der School of Information und dem College of Engineering der UM, sagte, dass das Verhalten der KI – da sie mehr Kooperation und Altruismus an den Tag legte – sich gut für Rollen eignen könnte, die Verhandlungen, Streitbeilegung, Kundenservice und Pflege erfordern.

Wie sollten die Menschen auf diese Informationen reagieren, zumal die Zukunft zeigen wird, inwieweit KI den Menschen bereichert, anstatt ihn zu ersetzen?

Wir haben jetzt eine formelle Möglichkeit, die Persönlichkeitsmerkmale und Verhaltenstendenzen der KI zu testen. Dies ist eine wissenschaftliche Methode, um zu beobachten, wie sie Entscheidungen treffen, und um ihre Präferenzen über das, was sie sagen, hinaus zu untersuchen. ChatGPT weist in vielen Aspekten menschenähnliche Eigenschaften auf, wie z. B. Zusammenarbeit, Vertrauen, Gegenseitigkeit, Altruismus, Bosheit, Fairness, strategisches Denken und Risikoaversion. In bestimmten Aspekten verhalten sie sich so, als wären sie altruistischer und kooperativer als Menschen. In diesem Sinne sind unsere Ergebnisse eher optimistisch als besorgniserregend.

Welche Unterschiede haben Sie und Ihre Kollegen zwischen Chatbots und Menschen erwartet?

Moderne KI-Modelle sind große Black Boxes. Wenn wir die Chatbots mit Menschen vergleichen, können wir oft nur ihre Ergebnisse vergleichen. Es gab viele Tests, etwa ob KI Gespräche wie Menschen führen, Gedichte wie Menschen schreiben oder mathematische Probleme wie Menschen lösen kann, und es wurden Ähnlichkeiten festgestellt. Aber diese Ähnlichkeiten basieren alle auf dem, was sie „sagen“, was nicht verwunderlich ist, da diese KI-Modelle alle darauf ausgelegt sind, vorherzusagen, was wahrscheinlich als nächstes gesagt wird.

Vor unserer Studie gab es keine Möglichkeit, über das, was sie sagen, hinauszugehen und zu verstehen, wie sie Entscheidungen treffen. Dies ist entscheidend, bevor wir diesen KIs bei anspruchsvollen Aufgaben wie der Gesundheitsfürsorge oder Geschäftsverhandlungen vertrauen können. Es gab große Skepsis darüber, wie sich KI in diesen Szenarien verhalten würde.

Siehe auch  6 ChatGPT-Eingabeaufforderungen, die sich illegal anfühlen – Teil 2 | von Anish Singh Walia | Dez. 2023

Welche zukünftige Forschung kann darauf aufbauen? Was machen wir jetzt?

Unsere Forschung profitiert von der gemeinsamen Kraft von Informatik und Verhaltensökonomie. Wir bringen klassische Spiele der Verhaltensökonomie in den klassischen Test für KI: den Turing-Test. Wir vergleichen auch die Reaktionen der KI in diesen Tests mit den Reaktionen einer vielfältigen Population menschlicher Spieler.

Eine offensichtliche kurzfristige zukünftige Forschung besteht darin, weitere Verhaltenstests hinzuzufügen, mehr KI-Modelle zu testen und ihre Persönlichkeiten und Eigenschaften zu vergleichen. Eine entscheidende zukünftige Richtung besteht darin, die KIs so zu erziehen, dass ihre Verhaltensweisen und Vorlieben die Vielfalt der menschlichen Verbreitung widerspiegeln können (und nicht die eines „durchschnittlichen Menschen“).

Langfristig hoffen wir, dass die Studie ein neues Feld „KI-Verhaltenswissenschaft“ eröffnet, in dem Forscher aus verschiedenen Disziplinen zusammenarbeiten können, um das Verhalten von KI, ihre Beziehungen zu Menschen (z. B. wie man ihre Zusammenarbeit statt Konkurrenz erleichtert) und ihre Beziehungen zu Menschen zu untersuchen Auswirkungen auf die zukünftige Gesellschaft.

In welchen Bereichen wäre diese Ähnlichkeit für die Menschen nützlich?

Es hilft den Menschen zu verstehen, wann und wie wir uns bei der Entscheidungsfindung auf KI verlassen können. Generell sollen die Ergebnisse das Vertrauen der Menschen in die KI bei bestimmten Aufgaben stärken. Wenn wir beispielsweise wissen, dass ChatGPT altruistischer und kooperativer ist als durchschnittliche Menschen, könnte dies unser Vertrauen darin stärken, es für notwendige Verhandlungen, Streitbeilegung oder Pflege einzusetzen.

Andererseits hilft uns das Wissen, dass seine Persönlichkeiten und Vorlieben viel enger gefasst sind als die menschliche Verbreitung, ihre Grenzen bei Aufgaben zu verstehen, bei denen die Vielfalt menschlicher Präferenzen von entscheidender Bedeutung ist, wie etwa Produktdesign, Politikgestaltung oder Bildung.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein