× schließen
„Big Five“-Persönlichkeitsprofile von ChatGPT-4 und ChatGPT-3 im Vergleich zur Verteilung menschlicher Probanden. Die blauen, orangefarbenen und grünen Linien entsprechen den mittleren Werten von Menschen, ChatGPT-4 bzw. ChatGPT-3; Die schattierten Bereiche stellen die mittleren 95 % der Bewertungen für jede Dimension dar. Die Persönlichkeitsprofile von ChatGPT liegen im Bereich der menschlichen Verbreitung, auch wenn ChatGPT-3 in der Offenheit deutlich schlechter abschneidet. Kredit: Verfahren der Nationalen Akademie der Wissenschaften (2024). DOI: 10.1073/pnas.2313925121
Moderne künstliche Intelligenz wie ChatGPT ist in der Lage, menschliches Verhalten nachzuahmen, erstere hat jedoch positivere Ergebnisse wie Kooperation, Altruismus, Vertrauen und Gegenseitigkeit.
In einer neuen Studie der University of Michigan veröffentlicht im Verfahren der Nationalen Akademie der Wissenschaftenverwendeten Forscher „Verhaltens“-Turing-Tests – die die Fähigkeit einer Maschine testen, menschenähnliche Reaktionen und Intelligenz zu zeigen –, um die Persönlichkeit und das Verhalten einer Reihe von KI-Chatbots zu bewerten.
Die Tests umfassten die Beantwortung psychologischer Umfragefragen durch ChatGPT und das Spielen interaktiver Spiele. Die Forscher verglichen die Entscheidungen von ChatGPT mit denen von 108.000 Menschen aus mehr als 50 Ländern.
Der Hauptautor der Studie, Qiaozhu Mei, Professor an der School of Information und dem College of Engineering der UM, sagte, dass das Verhalten der KI – da sie mehr Kooperation und Altruismus an den Tag legte – sich gut für Rollen eignen könnte, die Verhandlungen, Streitbeilegung, Kundenservice und Pflege erfordern.
Wie sollten die Menschen auf diese Informationen reagieren, zumal die Zukunft zeigen wird, inwieweit KI den Menschen bereichert, anstatt ihn zu ersetzen?
Wir haben jetzt eine formelle Möglichkeit, die Persönlichkeitsmerkmale und Verhaltenstendenzen der KI zu testen. Dies ist eine wissenschaftliche Methode, um zu beobachten, wie sie Entscheidungen treffen, und um ihre Präferenzen über das, was sie sagen, hinaus zu untersuchen. ChatGPT weist in vielen Aspekten menschenähnliche Eigenschaften auf, wie z. B. Zusammenarbeit, Vertrauen, Gegenseitigkeit, Altruismus, Bosheit, Fairness, strategisches Denken und Risikoaversion. In bestimmten Aspekten verhalten sie sich so, als wären sie altruistischer und kooperativer als Menschen. In diesem Sinne sind unsere Ergebnisse eher optimistisch als besorgniserregend.
Welche Unterschiede haben Sie und Ihre Kollegen zwischen Chatbots und Menschen erwartet?
Moderne KI-Modelle sind große Black Boxes. Wenn wir die Chatbots mit Menschen vergleichen, können wir oft nur ihre Ergebnisse vergleichen. Es gab viele Tests, etwa ob KI Gespräche wie Menschen führen, Gedichte wie Menschen schreiben oder mathematische Probleme wie Menschen lösen kann, und es wurden Ähnlichkeiten festgestellt. Aber diese Ähnlichkeiten basieren alle auf dem, was sie „sagen“, was nicht verwunderlich ist, da diese KI-Modelle alle darauf ausgelegt sind, vorherzusagen, was wahrscheinlich als nächstes gesagt wird.
Vor unserer Studie gab es keine Möglichkeit, über das, was sie sagen, hinauszugehen und zu verstehen, wie sie Entscheidungen treffen. Dies ist entscheidend, bevor wir diesen KIs bei anspruchsvollen Aufgaben wie der Gesundheitsfürsorge oder Geschäftsverhandlungen vertrauen können. Es gab große Skepsis darüber, wie sich KI in diesen Szenarien verhalten würde.
Welche zukünftige Forschung kann darauf aufbauen? Was machen wir jetzt?
Unsere Forschung profitiert von der gemeinsamen Kraft von Informatik und Verhaltensökonomie. Wir bringen klassische Spiele der Verhaltensökonomie in den klassischen Test für KI: den Turing-Test. Wir vergleichen auch die Reaktionen der KI in diesen Tests mit den Reaktionen einer vielfältigen Population menschlicher Spieler.
Eine offensichtliche kurzfristige zukünftige Forschung besteht darin, weitere Verhaltenstests hinzuzufügen, mehr KI-Modelle zu testen und ihre Persönlichkeiten und Eigenschaften zu vergleichen. Eine entscheidende zukünftige Richtung besteht darin, die KIs so zu erziehen, dass ihre Verhaltensweisen und Vorlieben die Vielfalt der menschlichen Verbreitung widerspiegeln können (und nicht die eines „durchschnittlichen Menschen“).
Langfristig hoffen wir, dass die Studie ein neues Feld „KI-Verhaltenswissenschaft“ eröffnet, in dem Forscher aus verschiedenen Disziplinen zusammenarbeiten können, um das Verhalten von KI, ihre Beziehungen zu Menschen (z. B. wie man ihre Zusammenarbeit statt Konkurrenz erleichtert) und ihre Beziehungen zu Menschen zu untersuchen Auswirkungen auf die zukünftige Gesellschaft.
In welchen Bereichen wäre diese Ähnlichkeit für die Menschen nützlich?
Es hilft den Menschen zu verstehen, wann und wie wir uns bei der Entscheidungsfindung auf KI verlassen können. Generell sollen die Ergebnisse das Vertrauen der Menschen in die KI bei bestimmten Aufgaben stärken. Wenn wir beispielsweise wissen, dass ChatGPT altruistischer und kooperativer ist als durchschnittliche Menschen, könnte dies unser Vertrauen darin stärken, es für notwendige Verhandlungen, Streitbeilegung oder Pflege einzusetzen.
Andererseits hilft uns das Wissen, dass seine Persönlichkeiten und Vorlieben viel enger gefasst sind als die menschliche Verbreitung, ihre Grenzen bei Aufgaben zu verstehen, bei denen die Vielfalt menschlicher Präferenzen von entscheidender Bedeutung ist, wie etwa Produktdesign, Politikgestaltung oder Bildung.
Mehr Informationen: Qiaozhu Mei et al., Ein Turing-Test, ob KI-Chatbots im Verhalten Menschen ähnlich sind, Verfahren der Nationalen Akademie der Wissenschaften (2024). DOI: 10.1073/pnas.2313925121