Benutzer aus den USA und Großbritannien können über die Anthropic-Website mit dem neuronalen Netzwerk Claude 2 kommunizieren.
Nikita Shevtsev
Anthropisch
Vielleicht wird Claude in Zukunft sogar besser sein als ChatGPT. Er weiß schon mehr
Anthropic führte Claude 2 ein, ein großes Sprachmodell (LLM), ähnlich ChatGPT, das Code erstellen, Text und Dateien analysieren kann. Im Gegensatz zu Originalfassung Claude wurde im März veröffentlicht. Benutzer können Claude 2 kostenlos testen neue Website. Das neuronale Netzwerk steht Entwicklern auch als kommerzielle API zur Verfügung.
Analog zu ChatGPT
Anthropic sagt, dass Claude darauf ausgelegt ist, ein Gespräch mit einem hilfreichen Kollegen oder persönlichen Assistenten zu simulieren, und dass die neue Version das Feedback von Benutzern des Vorgängermodells berücksichtigt: Ergebnisse und ein längeres Gedächtnis.“
Anthropic behauptet, dass Claude 2 Fortschritte in drei Schlüsselbereichen zeigt: Codierung, Mathematik und Argumentation. „Unser neuestes Modell erzielte im Multiple-Choice-Teil der Anwaltsprüfung eine Punktzahl von 76,5 %, verglichen mit 73,0 % bei der Claude 1,3“, schreiben sie. „Im Vergleich zu College-Studenten, die ein Graduiertenstudium beginnen, erreichte Claude 2 bei den GRE-Prüfungen in den Bereichen Lesen und Schreiben mehr als das 90. Perzentil und in den Rechenfähigkeiten eine ähnliche Punktzahl wie der durchschnittliche Kandidat.“
WERBUNG – FORTSETZUNG UNTEN
Eine der Hauptverbesserungen von Claude 2 ist die erhöhte Ein- und Ausgabelänge. Anthropic experimentiert mit der Verarbeitung von Hinweisen von bis zu 100.000 Token (Wortfragmenten), wodurch das KI-Modell lange Dokumente wie technische Handbücher oder ganze Bücher analysieren kann. Das erhöhte Volumen erstreckt sich auch auf die Ausgabe, sodass Sie längere Dokumente erstellen können.
Was die Programmierfähigkeiten angeht, hat Claude 2 eine deutliche Leistungssteigerung gezeigt. Seine Punktzahl in Codex HumanEval, ein Python-Programmiertest, stieg von 56 Prozent auf 71,2 Prozent. Ebenso in GSM8keinem Test, der Grundschul-Matheaufgaben umfasste, verbesserte sich die Punktzahl von 85,2 Prozent auf 88 Prozent.
Eines der Hauptziele von Anthropic bestand darin, die Wahrscheinlichkeit zu verringern, dass sein Sprachmodell bei bestimmten Abfragen „schädliche“ oder „beleidigende“ Ausgaben generiert, obwohl die Messung dieser Eigenschaften höchst subjektiv und schwierig ist. Laut der internen Bewertung der Entwickler war „Claude 2 im Vergleich zu Claude 1.3 doppelt so gut darin, harmlose Antworten zu liefern.“
Artikel wird geladen…