Das KI-Startup Anthropic sagte am Montag, dass die neueste Version seiner Claude-KI-Modellfamilie, Claude 3, ein „menschenähnliches Verständnis“ aufweist, eine mutige, wenn auch nicht ganz beispiellose Behauptung eines Herstellers generativer KI-Chatbots.

Im Vergleich zu früheren Versionen kann die Claude-3-Familie kompliziertere Abfragen mit höherer Genauigkeit und verbessertem Kontextverständnis verarbeiten, so Anthropic. Die neueste Modellfamilie ist auch besser in der Analyse und Prognose; Inhaltserstellung; Codegenerierung; und sich in Sprachen wie Spanisch, Japanisch und Französisch unterhalten, sagte das Unternehmen. Es ist jedoch anzumerken, dass Chatbots zwar Inhalte verstehen und vorhersagen können, die Bedeutung von Wörtern jedoch nicht so wirklich verstehen wie wir.

Mehr lesen: KI-Chatbots sind hier, um zu bleiben. Erfahren Sie, wie sie für Sie arbeiten können

In aufsteigender PS-Reihenfolge sind die drei Modelle der Claude 3-Familie: Claude 3 Haiku, Claude 3 Sonnet und Claude 3 Opus.

Seit der Veröffentlichung des Text-to-Image-Modells Dall-E im Jahr 2021 hat sich das Tempo der Updates und Veröffentlichungen bei generativen KI-Unternehmen beschleunigt. Im Februar veröffentlichte google die neueste Version seines Modells, Gemini 1.0 Ultra, und kündigte Gemini 1.5 Pro an . Der chatgpt-Hersteller OpenAI stellte im November sein GPT-4-Turbo-Modell vor. Microsoft kündigte im September seinen „KI-Begleiter“ Copilot an. Alle diese Unternehmen wollen sich einen Anspruch auf dem Markt für generative KI sichern bis 2032 sollen es 1,3 Billionen US-Dollar sein.

Laut Anthropic übertrifft Opus jedenfalls seine Konkurrenten bei KI-Benchmarks wie Expertenwissen auf Bachelor-Niveau, Expertendenken auf Graduiertenniveau und grundlegender Mathematik. Um fair zu sein, hat Google gesagt, dass sein Gemini 1.5-Modell „das bisher längste Kontextfenster aller groß angelegten Basismodelle“ hat, und bezieht sich dabei auf die Messung des „Kontextfensters“, das angibt, wie viel ein Modell auf einmal abrufen kann. OpenAI wiederum bezeichnete sein GPT-4-Turbo-Modell als „leistungsfähiger“. [and] „günstiger“ als frühere Modelle, da es auch multimodale Funktionen wie Vision, Bilderstellung und Text-to-Speech unterstützt.

Siehe auch  Aufruhr bei OpenAI: Wie geht es nach der Entlassung von Sam Altman mit der Heimat von ChatGPT weiter?

Anthropic sagte, seine Claude-3-Familie setze „einen neuen Standard für Intelligenz“, da die Modelle genauer als die Vorgängermodelle seien und mehrstufigen Anweisungen besser folgen könnten.

Im Vergleich zu Claude 2.1, das im November herauskam, habe Opus beispielsweise eine zweifache Verbesserung der Genauigkeit bei offenen Fragen gezeigt, sagte Anthropic. Darüber hinaus wird das Unternehmen in Kürze Zitate ermöglichen, wodurch es für Claude 3-Benutzer einfacher wird, Antworten innerhalb von Referenzmaterial zu überprüfen.

Die Claude-3-Modelle weigern sich zudem „deutlich seltener“ als ihre Vorgänger, auf harmlose Aufforderungen zu antworten, da sie „ein differenzierteres Verständnis von Anfragen“ hätten und „echten Schaden erkennen“, sagte Anthropic. Das bedeutet, dass Benutzer, die Anfragen stellen, die nicht gegen Richtlinien verstoßen, mit größerer Wahrscheinlichkeit Antworten von den Claude-3-Modellen erhalten.

Ab Montag ist Sonnet über claude.ai verfügbar und Opus ist für Claude Pro-Abonnenten zugänglich.

Anthropic gab keinen Veröffentlichungstermin für Haiku bekannt, sagte lediglich, dass es „bald verfügbar“ sein wird.

Die Claude 3-Modelle verfügen über ein Kontextfenster mit 200.000 Token. Ein Token entspricht vier Zeichen oder etwa drei Vierteln eines Wortes im Englischen.

Stellen Sie sich das so vor: „Krieg und Frieden“ von Leo Tolstoi ist 587.287 Wörter lang. Das sind etwa 440.465 Token. Das bedeutet, dass sich Claude 3 pro Sitzung etwa die Hälfte des Buches merken kann.

Anthropic sagte jedoch, dass das Modell in der Lage sei, Eingaben von mehr als 1 Million Token zu akzeptieren, und dass das Unternehmen „dies möglicherweise ausgewählten Kunden zur Verfügung stellen könnte, die eine verbesserte Verarbeitungsleistung benötigen“.

Zum Vergleich: Googles neueste Gemini-Modelle können bis zu 1 Million Token verarbeiten, während GPT-4-Modelle Kontextfenster von etwa 8.000 bis 128.000 Token haben.

Siehe auch  OpenAI könnte bis 2024 bankrott gehen, da der tägliche Betrieb von ChatGPT über 5 Crore Rupien kostet

Haiku versus Sonett versus Opus

Während Anthropic Haiku für Kundeninteraktionen, Content-Moderation und Aufgaben wie die Bestandsverwaltung empfiehlt, zeichnet sich Sonnet laut eigener Aussage „bei Aufgaben aus, die schnelle Reaktionen erfordern, wie z. B. Wissensabruf oder Vertriebsautomatisierung“.

Opus hingegen kann komplexe Aktionen über APIs und Datenbanken hinweg planen und ausführen und Forschungs- und Entwicklungsaufgaben wie Brainstorming und Hypothesengenerierung und sogar Medikamentenentwicklung sowie erweiterte Analysen von Diagrammen und Grafiken, Finanzdaten und Markttrends durchführen, heißt es das Unternehmen.

Die Claude-3-Modelle können visuelle Formate wie Fotos, Diagramme und Grafiken „auf Augenhöhe mit anderen führenden Modellen“ verarbeiten, sagte Anthropic.

Laut dem Bias Benchmark for Question Answering, einer Sammlung von Fragensätzen von Wissenschaftlern der New York University, weist Claude 3 auch weniger Vorurteile auf als seine Vorgänger bewertet Modelle für soziale Vorurteile gegen Menschen in geschützten Klassen.

Anthropic wies außerdem darauf hin, dass es über mehrere Teams verfügt, die sich auf Risiken wie Fehlinformationen, Material über sexuellen Missbrauch von Kindern, Wahleinmischung und „autonome Replikationskompetenzen“ konzentrieren. Das bedeutet, dass wir bei Claude 3 möglicherweise weniger wahrscheinlich die beunruhigenden Reaktionen sehen, die Chatbots bekanntermaßen von Zeit zu Zeit geben.

Bewertungen von Red-Teams oder solchen, die nach Schwachstellen in der KI suchen, zeigten, dass die Modelle „derzeit ein vernachlässigbares Potenzial für katastrophale Risiken darstellen“, heißt es in einem Anthropic-Blogbeitrag.

„Während wir die Grenzen der KI-Fähigkeiten erweitern, sind wir gleichermaßen bestrebt, sicherzustellen, dass unsere Sicherheitsleitplanken mit diesen Leistungssprüngen Schritt halten“, heißt es in dem Beitrag weiter. „Unsere Hypothese ist, dass es der effektivste Weg ist, ihren Weg in Richtung positiver gesellschaftlicher Ergebnisse zu lenken, wenn man an der Spitze der KI-Entwicklung steht.“

Siehe auch  Digitales Leben: Wenn ChatGPT in einem harten Kampf gegen den Rivalen Google Bard antritt

Anthropic sagte, es plane, „in den nächsten Monaten häufige Updates“ für die Claude-3-Modelle zu veröffentlichen.

Anmerkung der Redaktion: CNET verwendet eine KI-Engine, um bei der Erstellung einiger Geschichten zu helfen. Weitere Informationen finden Sie unter dieser Beitrag.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein