Was würde passieren, wenn Sie eine virtuelle Stadt mit KIs füllen und sie loslassen würden? Wie sich herausstellt, putzen sie sich die Zähne und sind sehr nett zueinander! Aber dieses unaufregende Ergebnis ist eine gute Nachricht für die Forscher, die es getan haben, da sie „glaubwürdige Simulakren menschlichen Verhaltens“ produzieren wollten und genau das erreicht haben.

Das Papier, das das Experiment beschreibt, von Stanford- und Google-Forschern, wurde nirgendwo einem Peer-Review unterzogen oder zur Veröffentlichung angenommen, aber es ist dennoch eine interessante Lektüre. Die Idee war zu sehen, ob sie die neuesten Fortschritte bei maschinellen Lernmodellen anwenden könnten, um „generative Agenten“ zu produzieren, die ihre Umstände berücksichtigen und als Reaktion eine realistische Aktion ausgeben.

Und das ist sehr viel, was sie bekamen. Aber bevor Sie sich von den süßen Bildern und Beschreibungen von Reflexion, Konversation und Interaktion täuschen lassen, stellen wir sicher, dass Sie verstehen, dass das, was hier passiert, eher einem Rollenspiel einer Improvisationstruppe auf einem MUD ähnelt als einer Art Proto-Skynet. (Nur Millennials werden den vorhergehenden Satz verstehen.)

Diese kleinen Charaktere sind nicht ganz das, was sie zu sein scheinen. Die Grafiken sind nur eine visuelle Darstellung dessen, was im Wesentlichen eine Reihe von Gesprächen zwischen mehreren Instanzen von ChatGPT ist. Die Agenten gehen nicht hoch, runter, links und rechts oder nähern sich einem Schrank, um mit ihm zu interagieren. All dies geschieht durch eine komplexe und verborgene Textebene, die die Informationen zu jedem Agenten synthetisiert und organisiert.

Fünfundzwanzig Agenten, 25 Instanzen von ChatGPT, die jeweils mit ähnlich formatierten Informationen aufgefordert werden, die dazu führen, dass sie die Rolle einer Person in einer fiktiven Stadt spielen. So ist eine solche Person, John Lin, aufgebaut:

John Lin ist ein Apotheker im Willow Market and Pharmacy, der es liebt, Menschen zu helfen. Er ist immer auf der Suche nach Möglichkeiten, den Prozess der Medikamentenbeschaffung für seine Kunden zu vereinfachen; John Lin lebt mit seiner Frau Mei Lin, die College-Professorin ist, und seinem Sohn Eddy Lin, der Musiktheorie studiert, zusammen; John Lin liebt seine Familie sehr; John Lin kennt das alte Paar von nebenan, Sam Moore und Jennifer Moore, seit ein paar Jahren; John Lin hält Sam Moore für einen freundlichen und netten Mann …

Mit diesen Informationen werden die Agenten dann gebeten, angesichts der Zeit und der Umstände ihre nächsten Aktionen zu planen. Zum Beispiel könnten sie dem John-Agenten sagen, dass es 8 Uhr morgens ist und er gerade aufgewacht ist. Was macht er? Nun, er putzt sich die Zähne, küsst seine Frau (hoffentlich in dieser Reihenfolge), zieht sich an und geht dann in die Küche.

Siehe auch  Bitcoin Pyramid Scheme Betrüger zur Zahlung von 3,4 Milliarden Dollar verurteilt

In der Zwischenzeit wurde auch eine andere, völlig unabhängige ChatGPT-Instanz, die Johns Sohn Eddy repräsentiert, mit eigenen Informationen aufgefordert. Auch er steht auf, putzt sich die Zähne und geht dann in die Küche.

Und jetzt kommt die übergreifende Struktur des Experiments ins Spiel: Die Agenten, die John und Eddy darstellen, befinden sich nicht beide „in“ demselben virtuellen Raum oder so etwas. Stattdessen informiert ihn der experimentelle Rahmen, wenn John sich fertig angezogen hat und sagt, dass er in die Küche gehen wird, dass sein Sohn Eddy da ist, weil Eddy in seinem eigenen Fall entschieden hat, zu einer sich überschneidenden Zeit im Experiment in die Küche zu ziehen -Ebene „Tag“, basierend auf einer Schätzung, wie lange verschiedene Aktionen dauern.

Da beide gleichzeitig im Raum sind, informiert sie der Versuchsaufbau darüber, dass die andere Person da ist – zusammen mit Informationen wie, dass es einen Tisch gibt, an dem niemand sitzt, der Herd an ist usw. Was sie tun als nächstes tun?

John: Guten Morgen Eddy. Hast Du gut geschlafen? Eddy: Guten Morgen, Papa. Ja, ich habe super geschlafen. Johannes: Das ist gut. Woran arbeitest du heute? Eddy: Ich arbeite an einer neuen Musikkomposition für meine Klasse. Es ist diese Woche fällig, also versuche ich, es fertig zu bekommen. Aber ich habe so viel Spaß damit! John: Das klingt großartig!

Was für eine nette, normale Interaktion zwischen Eltern und Kind. Dann kommt Mei herein und sie haben auch eine angenehme Interaktion. Und das alles wird erreicht, indem völlig separate Chatbots gefragt werden, was sie in einer fiktiven Stadt, in der sie sich befindet, tun würden Das Person und hatte eine Familie wie Das und war in einem Zimmer bei Das Zeit, wo Das passierte … was würden „sie“, ein echter Mensch, tun?

Siehe auch  Instagram und Snapchat kündigen Updates an, um relevant zu bleiben

ChatGPT schätzt also, was eine Person in dieser Situation tun würde, und gibt ihre Antwort, als würde sie ein Textabenteuer spielen. Wenn Sie ihm dann sagen: „Es ist stockfinster, Sie werden wahrscheinlich von einem Grue gefressen“, würde er wahrscheinlich sagen, dass er eine Fackel anzündet. Aber stattdessen lässt das Experiment die Charaktere mit ihrem Tag Minute für Minute weitermachen, Lebensmittel kaufen, im Park spazieren gehen und zur Arbeit gehen.

Bildnachweis: Google / Stanford University

Die Benutzer können auch Ereignisse und Umstände eintragen, wie einen tropfenden Wasserhahn oder den Wunsch, eine Party zu planen, und die Agenten reagieren angemessen, da jeder Text für sie Realität ist.

All dies wird durchgeführt, indem alle diese Instanzen von ChatGPT mühsam mit allen Details der unmittelbaren Umstände des Agenten aufgefordert werden. Hier ist eine Eingabeaufforderung für John, wenn er später auf Eddy trifft:

Es ist der 13. Februar 2023, 16:56 Uhr. John Lins Status: John ist früh von der Arbeit nach Hause gekommen. Beobachtung: John sah, wie Eddy einen kurzen Spaziergang um seinen Arbeitsplatz machte. Zusammenfassung des relevanten Kontextes aus Johns Erinnerung: Eddy Lin ist der Sohn von Johns Lin. Eddy Lin hat an einer Musikkomposition für seine Klasse gearbeitet. Eddy Lin geht gerne im Garten herum, wenn er an Musik denkt oder Musik hört. John fragt Eddy nach seinem Musikkompositionsprojekt. Was würde er Eddy sagen?

[Answer:] Hey Eddy, wie läuft das Musikkompositionsprojekt für deine Klasse?

Die Instanzen würden schnell anfangen, wichtige Dinge zu vergessen, da der Prozess so langwierig ist, dass das experimentelle Framework auf der Simulation sitzt und sie an wichtige Dinge erinnert oder sie in tragbarere Teile synthetisiert.

Zum Beispiel, nachdem dem Agenten von einer Situation im Park erzählt wurde, wo jemand auf einer Bank sitzt und sich mit einem anderen Agenten unterhält, aber es gibt auch Gras und Kontext und einen leeren Platz auf der Bank … nichts davon ist wichtig . Was ist wichtig? Aus all diesen Beobachtungen, die für den Agenten seitenlangen Text ausmachen können, erhalten Sie möglicherweise die „Reflexion“, dass „Eddie und Fran Freunde sind, weil ich sie zusammen im Park gesehen habe“. Das wird in das langfristige „Gedächtnis“ des Agenten eingetragen – ein Haufen Zeug, das außerhalb der ChatGPT-Konversation gespeichert wird – und der Rest kann vergessen werden.

Siehe auch  Microsoft Devs hat eine Version von Windows für Steam Deck erstellt

Also, was macht all diese Rigmarole aus? Etwas weniger als echte Generative Agenten, wie sie von der Veröffentlichung vorgeschlagen werden, um sicher zu sein, aber auch ein äußerst überzeugender früher Versuch, sie herzustellen. Dwarf Fortress macht natürlich dasselbe, aber durch Handcodierung jeder Möglichkeit. Das skaliert nicht gut!

Es war nicht offensichtlich, dass ein großes Sprachmodell wie ChatGPT gut auf diese Art der Behandlung ansprechen würde. Schließlich war es nicht darauf ausgelegt, langfristig beliebige Kunstfiguren zu imitieren oder über die irrsinnigsten Details des Tages eines Menschen zu spekulieren. Aber richtig gehandhabt – und mit ziemlich viel Massage – kann das nicht nur ein Agent tun, sondern sie brechen auch nicht, wenn Sie sie als Teile in einer Art virtuellem Diorama verwenden.

Dies hat möglicherweise enorme Auswirkungen auf Simulationen menschlicher Interaktionen, wo immer diese relevant sein mögen – natürlich sind sie in Spielen und virtuellen Umgebungen wichtig, aber dieser Ansatz ist dafür immer noch ungeheuer unpraktisch. Wichtig ist jedoch nicht, dass es etwas ist, das jeder benutzen oder damit spielen kann (obwohl es bald sein wird, daran habe ich keinen Zweifel), sondern dass das System überhaupt funktioniert. Wir haben das bei der KI gesehen: Wenn sie etwas schlecht kann, bedeutet die Tatsache, dass sie es überhaupt kann, im Allgemeinen, dass es nur eine Frage der Zeit ist, bis sie es gut macht.

Das vollständige Papier „Generative Agents: Interactive Simulacra of Human Behavior“ können Sie hier lesen.

5/5 - (247 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein