Indem man chatgpt„>ChatGPT merkt sich GesprächeOpenAI hofft, die Notwendigkeit für Benutzer, sich wiederholende Kontextinformationen bereitzustellen, zu verringern und zukünftige Chats hilfreicher zu machen. Benutzer können explizit fragen, was sie sich merken oder vergessen möchten, oder die Funktion ganz deaktivieren.
Der Kontext ist für ChatGPT von entscheidender Bedeutung, um kohärente Antworten liefern zu können, und wird normalerweise vom Benutzer in der Eingabeaufforderung angegeben. Dies erfordert, dass es bei jedem neuen Gespräch erneut formuliert wird. Seit seiner Einführung hat ChatGPT jedoch zusätzliche Flexibilität in diesem Bereich erlangt, einschließlich benutzerdefinierter Anweisungen und jetzt auch Speicher.
Der Speicher von ChatGPT erweitert die Fähigkeit von ChatGPT, kontext- und benutzerbezogene Antworten bereitzustellen. OpenAI erklärt beispielsweise, dass der neue Speichermechanismus es ChatGPT ermöglichen wird, Benutzerpräferenzen darüber zu lernen und sich daran zu erinnern, wie Informationen am Ende einer Präsentation zusammengefasst werden sollen, was ihre aktuelle Aufgabe oder Unternehmung ist und so weiter.
Wenn der ChatGPT-Speicher aktiviert ist, können Sie unter Einstellungen > Personalisierung > Speicher verwalten eine Liste aller Ihrer Erinnerungen anzeigen. Sie können bestimmte Erinnerungen oder alle löschen. Es ist wichtig zu beachten, dass durch das Löschen von Konversationen keine damit verbundenen Erinnerungen gelöscht werden. OpenAI sagt, dass sie möglicherweise Erinnerungen verwenden, um das GPT-Training zu verbessern, aber Standardbenutzern steht es frei, sich abzumelden, während ChatGPT Team- und Enterprise-Kunden standardmäßig ausgeschlossen sind.
Der ChatGPT-Speicher wird für jede neue Konversation verwendet, was möglicherweise nicht immer die beste Option ist cl42 bemerkte auf Hacker News. Tatsächlich sei das Gedächtnis für „beziehungsorientierte“ Gespräche von entscheidender Bedeutung, während es bei „transaktionalen“ Gesprächen, bei denen jeder Chat als separate Frage gedacht sei, nicht hilfreich sei. Um diese Art der Nutzung anzugehen, schlägt OpenAI die Verwendung temporärer Chats vor, die „nicht im Verlauf erscheinen, keinen Speicher verbrauchen und nicht zum Trainieren unserer Modelle verwendet werden“.
Vor ein paar Monaten, OpenAI hat mit der Einführung benutzerdefinierter Anweisungen begonnen um Benutzern mehr Kontrolle über ihre Konversationen zu geben und die Reibung zu verringern, die mit dem erneuten Starten neuer Konversationen verbunden ist. Benutzerdefinierte Anweisungen eröffneten die Möglichkeit, einen allgemeinen Kontext darüber anzugeben, wie ChatGPT seine Antworten bereitstellen soll, sowie Anweisungen zum Antwortformat, Zweck oder anderen Kriterien, die sich darauf auswirken, wie ChatGPT seine Antworten präsentiert.
Mit dem Speicher von ChatGPT versucht OpenAI, über benutzerdefinierte Anweisungen hinauszugehen und einen allgemeineren und flexibleren Mechanismus bereitzustellen, der sowohl transparent hinter den Kulissen als auch unter direkter Benutzerkontrolle arbeiten kann.
Der Kontext wird über ein in die Benutzeraufforderung eingebettetes Kontextfenster an ChatGPT übergeben. Dabei handelt es sich um den Text, den das Modell als Ausgangspunkt für die Generierung von Antworten verwendet. Wie bereits erwähnt, ist dies wichtig, um das Modell konsistent zu halten und sicherzustellen, dass es einen sinnvollen Dialog mit dem Benutzer generiert. Verschiedene ChatGPT-Versionen haben unterschiedlich große Kontextfenster. Während ChatGPT Enterprise beispielsweise eine Kontextlänge von 128 KB unterstützt, bietet der ChatGPT-4-Standard nur ein 8.000-Token-Fenster, wodurch er weniger kontextsensitiv ist als ersterer.