Claude AI und chatgpt: Hauptunterschiede
Claude ist ein robuster und ausgereifter KI-Chatbot und eine gute Option, die Sie immer dabei haben sollten ChatGPT fällt aus. aber es gibt welche wesentliche Unterschiede zwischen Claude 2 und ChatGPT, die Sie kennen sollten, bevor Sie mit der Verwendung eines der beiden Chatbots beginnen.
Sprachmodell
Claude ist der Name sowohl des Chatbots als auch des von Anthropic entwickelten großen Sprachmodells. Es wird weiter trainiert 137 Milliarden Text- und Codeparameter – das Gleiche wie Metas Lama 2.
Parameter sind verschiedene Variablen, die ein LLM während des Trainings lernt und die angepasst werden können, um die Art und Weise zu formen, wie er auf Antworten antwortet. Allgemein, Mehr Parameter bedeuten ein leistungsfähigeres Sprachmodell.
Die kostenlose Version von ChatGPT verwendet GPT-3.5, darauf trainiert 175 Milliarden Parameter – es ist also nicht viel größer als Claude 2. GPT-4, das die kostenpflichtige Version antreibt, ist auf einen enormen Satz von 1,5 Billionen Parametern trainiert.
Datenaufbewahrung und -nutzung
Seit ChatGPT im Jahr 2022 auf den Markt kam, Befürworter der Privatsphäre waren anspruchsvoll Weitere Informationen darüber, wie der Chatbot Benutzerdaten nutzt. OpenAI hat dies immer offen geäußert ChatGPT speichert Daten, dass Benutzergespräche möglicherweise für KI-Schulungszwecke verwendet werden und dass diese sogar von Menschen gesehen werden können, die im Unternehmen arbeiten. Das Unternehmen speichert Ihre Gespräche jedoch bis zu 30 Tage lang, nachdem Sie sie gelöscht haben.
Claude von Anthropic wird auch Ihre Gespräche retten. Das Unternehmen sagt dass es „Eingabeaufforderungen und Ausgaben im Backend innerhalb von 90 Tagen nach Erhalt oder Generierung automatisch löscht, sofern Sie und wir nichts anderes vereinbaren“ und dass es „Ihre Konversationen in unseren Verbraucher- oder Beta-/Evaluierungsdiensten nicht zum Trainieren unseres Modells nutzt“. ” Die einzige Ausnahme besteht, wenn Sie für eine Vertrauens- und Sicherheitsüberprüfung gekennzeichnet sind.
Antwortmoderation
Ein großer Unterschied zwischen ChatGPT und Claude 2 besteht darin, dass Claude im Allgemeinen als besser darin angesehen wird, dauerhaft sichere Antworten zu geben. Der Grund? Claude 2 ist mit etwas namens gebaut Verfassungsmäßige KI.
Claude erhält eine Reihe von Werten, an die sich seine Antworten halten müssen und die er dann erfüllen kann sich anhand der Verfassung feinabstimmenAnstatt auf menschliches Feedback und Eingaben zu warten, lernt ChatGPT auf diese Weise, welche Antworten es nicht beantworten sollte.
In einer Phase des Modelltrainings wurde Claude gebeten, „seine eigenen Antworten anhand der Prinzipien und einiger Beispiele des Prozesses zu kritisieren und zu überarbeiten“. In der zweiten Phase wird das Modell mithilfe von Reinforcement Learning weiter trainiert, aber wie bereits erwähnt, generiert es mithilfe der Konstitution sein eigenes Feedback für sich selbst.
Größe des Kontextfensters
Wie oben erwähnt, verfügt Claude 2 über ein Kontextfenster von etwa 100.000 Token 75.000 Wörter – Das bedeutet, dass Sie theoretisch große Berichte, Rechtsdokumente usw. hochladen können.
GPT-3.5 Turbo hat ein Kontextfenster von 4.097 Token, während GPT-3.5-16K ein Kontextfenster von etwa 16.385 Token hat. GPT-4, das nur ChatGPT Plus-Kunden zur Verfügung steht, verfügt über ein Kontextfenster von mehr als 32.000.
Abonnenten des Pro-Kontos des konkurrierenden AI-Chatbots Perplexity können jetzt auch Claudes langes Kontextfenster von 100.000 nutzen.
Einnahmen
Ein letzter großer Unterschied sind die Einnahmen des Unternehmens. Anthropic prognostiziert, dass dies der Fall sein wird google-and-others-just-days-after-1-25b-amazon-investment/“ target=“_blank“ rel=“noopener noreferrer“>17 Millionen US-Dollar monatlicher Umsatz bis Ende 2023 und hofft, ca. zu generieren 500 Millionen US-Dollar jährlich bis Ende 2024.
ChatGPT hingegen strebt einen Jahresumsatz von 1 Milliarde US-Dollar an. Es wird von immer mehr Menschen genutzt und verfügt jetzt auch über eine Premium-Version. Dies bedeutet jedoch nicht unbedingt, dass eines der beiden Unternehmen äußerst profitabel ist. Es kostet etwa 700.000 US-Dollar pro Tag Nur um ChatGPT am Laufen zu halten und auf Benutzeranfragen zu antworten.