[ad_1]
Laut OpenAI ist der Speicher von chatgpt von Anfang an eine Opt-in-Funktion und kann jederzeit gelöscht werden, entweder in den Einstellungen oder durch einfache Anweisung an den Bot, ihn zu löschen. Sobald die Speichereinstellung gelöscht ist, werden diese Informationen nicht zum Trainieren des KI-Modells verwendet. Es ist unklar, wie viele dieser persönlichen Daten genau zum Training der KI verwendet werden während jemand chattet mit dem Chatbot. Und das Ausschalten des Speichers bedeutet nicht, dass Sie vollständig darauf verzichtet haben, dass Ihre Chats das Modell von OpenAI trainieren; Das ist ein separates Opt-out.
Das Unternehmen gibt außerdem an, bestimmte vertrauliche Informationen nicht im Speicher zu speichern. Wenn Sie ChatGPT Ihr Passwort (tun Sie dies nicht) oder Ihre Sozialversicherungsnummer (oder dies) mitteilen, ist der Speicher der App zum Glück vergesslich. Jang sagt auch, dass OpenAI immer noch Feedback dazu einholt, ob andere persönlich identifizierbare Informationen, wie die ethnische Zugehörigkeit eines Benutzers, zu sensibel sind, als dass das Unternehmen sie automatisch erfassen könnte.
„Wir glauben, dass es für dieses Beispiel viele nützliche Fälle gibt, aber vorerst haben wir das Modell so trainiert, dass es davon abhält, sich diese Informationen proaktiv zu merken“, sagt Jang.
Es ist leicht zu erkennen, wie die Memory-Funktion von ChatGPT schief gehen könnte – Fälle, in denen ein Benutzer vielleicht vergessen hat, dass er den Chatbot einmal nach einem Perversen, einer Abtreibungsklinik oder einer gewaltfreien Art, mit einer Schwiegermutter umzugehen, gefragt hat, nur um es dann zu tun daran erinnern oder es anderen in einem zukünftigen Chat zeigen lassen. Wie der Speicher von ChatGPT mit Gesundheitsdaten umgeht, ist ebenfalls eine offene Frage. „Wir halten ChatGPT davon ab, sich bestimmte Gesundheitsdetails zu merken, aber das ist noch in Arbeit“, sagt OpenAI-Sprecher Niko Felix. Auf diese Weise ist ChatGPT das gleiche Lied, nur in einer neuen Ära, über die Beständigkeit des Internets: Schauen Sie sich diese großartige neue Speicherfunktion an, bis sie ein Fehler ist.
OpenAI ist auch nicht das erste Unternehmen, das in der generativen KI mit dem Gedächtnis spielt. google hat in Gemini 1.0, seinem eigenen LLM, den Schwerpunkt auf die „Multi-Turn“-Technologie gelegt. Dies bedeutet, dass Sie mit Gemini Pro über eine Eingabeaufforderung in nur einer Runde interagieren können – ein Hin- und Herwechsel zwischen dem Benutzer und dem Chatbot – oder eine kontinuierliche Konversation in mehreren Runden führen können, bei der sich der Bot den Kontext früherer Nachrichten „merkt“.
Ein KI-Framework-Unternehmen namens LangChain hat ein Speichermodul entwickelt, das großen Sprachmodellen dabei hilft, frühere Interaktionen zwischen einem Endbenutzer und dem Modell abzurufen. LLMs ein Langzeitgedächtnis zu geben „kann bei der Schaffung einzigartiger LLM-Erlebnisse sehr hilfreich sein – ein Chatbot kann beginnen, seine Antworten auf Sie als Einzelperson zuzuschneiden, basierend auf dem, was er über Sie weiß“, sagt Harrison Chase, Mitbegründer und CEO von LangChain. „Auch der Mangel an Langzeitgedächtnis kann zu einem schmerzlichen Erlebnis führen. Niemand möchte einem Restaurantempfehlungs-Chatbot immer wieder sagen müssen, dass er Vegetarier ist.“
Diese Technologie wird manchmal eher als „Kontexterhaltung“ oder „persistenter Kontext“ als als „Speicher“ bezeichnet, aber das Endziel ist dasselbe: Die Mensch-Computer-Interaktion soll sich so flüssig und natürlich anfühlen, dass der Benutzer sie leicht vergessen kann woran sich der Chatbot erinnern könnte. Dies ist auch ein potenzieller Segen für Unternehmen, die diese Chatbots einsetzen und möglicherweise eine dauerhafte Beziehung zum Kunden am anderen Ende aufrechterhalten möchten.
„Sie können sich das einfach als eine Reihe von Token vorstellen, die Ihren Gesprächen vorangestellt werden“, sagt Liam Fedus, ein OpenAI-Forscher. „Der Bot verfügt über eine gewisse Intelligenz, schaut sich hinter den Kulissen die Erinnerungen an und sagt: ‚Diese sehen aus, als wären sie verwandt; lass mich sie zusammenführen.' Und das geht dann zu Ihrem Token-Budget.“
Fedus und Jang sagen, dass das Gedächtnis von ChatGPT bei weitem nicht die Kapazität des menschlichen Gehirns erreicht. Und doch erklärt Fedus fast im gleichen Atemzug, dass man mit dem Speicher von ChatGPT auf „einige tausend Token“ beschränkt sei. Wenn nur.
Handelt es sich dabei um den hypervigilanten virtuellen Assistenten, der den Tech-Konsumenten im letzten Jahrzehnt versprochen wurde, oder nur um ein weiteres Datenerfassungssystem, das Ihre Vorlieben, Vorlieben und persönlichen Daten nutzt, um einem Technologieunternehmen besser zu dienen als seinen Nutzern? Möglicherweise beides, obwohl OpenAI es vielleicht nicht so ausdrückt. „Ich denke, den Assistenten der Vergangenheit fehlte einfach die Intelligenz“, sagte Fedus, „und jetzt sind wir am Ziel.“
Will Knight hat zu dieser Geschichte beigetragen.
[ad_2]