Das vorherige Claude 2 wurde im Juli mit satten 100.000 (100.000) Token gestartet, was eine längere Ein- und Ausgabe als die kostenlose Version von chatgpt ermöglicht. Diese Funktion bedeutet, dass Benutzer in jedem Gespräch bis zu etwa 75.000 Wörter austauschen können. Die neueste derzeit verfügbare Version, Claude 3, kann etwa 200.000 Wörter mit einem 195.000-Kontext verarbeiten und ist damit noch besser in der Lage, den Kontext in Gesprächen zu verstehen.
Claudes 195K-Kontext übersteigt den 4K-Kontext von ChatGPT in GPT-3.5. Der Kontext ermöglicht es LLMs, nuancierte, natürliche Sprache zu generieren, indem sie Informationen aus umfangreichen Datensätzen nutzen, um die Modelle auf die kontextuellen Beziehungen zwischen Wörtern und Phrasen zu trainieren.
Vereinfacht ausgedrückt handelt es sich bei diesem Kontext um Hintergrundinformationen wie frühere Chats, die Hin- und Her-Konversation von früher in einem Chat und Benutzerpräferenzen, die dem KI-Bot ein besseres Verständnis des Geschehens vermitteln. Bei diesen Informationen kann es sich um die Aufrechterhaltung des Kontexts innerhalb eines langen Gesprächs oder um die Anwendung auf die Einstellungen eines Benutzers handeln. Je größer der Kontext, desto genauer sind in der Regel die Informationen in einem Gespräch.
Außerdem: GPT-4 Turbo holt sich den Titel „Bestes KI-Modell“ von Claude 3 von Anthropic zurück
Der Kontext hilft dem KI-Chatbot zu verstehen, wann ein Benutzer beispielsweise einen „Schläger“ in einem Sportgerät oder ein geflügeltes Tier meint.
Der Kontext von Claude ermöglicht die Analyse und Zusammenfassung langer Dokumente, einschließlich wissenschaftlicher und medizinischer Studien, Bücher und Berichte. Dieser Kontext bedeutet auch, dass Claude lange Texte mit einer Länge von bis zu mehreren tausend Wörtern generieren kann.