Claude, die KI, die von sich behauptet, „ehrlich, nützlich und harmlos“ zu sein, hat mit ihrem neuen großen Sprachmodell, das in drei Versionen erhältlich ist, Anspruch auf zahlreiche Verbesserungen. Genug, um die Grenzen der generativen KI zu erweitern, weit vor chatgpt.

Der Wettlauf um künstliche Intelligenz geht unvermindert weiter! Während OpenAI (ChatGPT), Microsoft (Copilot) und google (Gemini) dachten, sie hätten einen Vorsprung, scheinen andere kleinere Unternehmen, die ebenfalls an der Entwicklung großer Sprachmodelle (LLM) arbeiten, allmählich an Boden zu gewinnen. Dies ist der Fall bei das französische Start-up Mistral AI, das kürzlich Le Chat vorgestellt hat, seinen von Mistral Large betriebenen Chatbot, der sich als ernstzunehmender Konkurrent von ChatGPT darstellt (siehe unseren Artikel). Auch das amerikanische Start-up Anthropic, gegründet von ehemaligen OpenAI-Mitarbeitern, will dies nicht zulassen und hat gerade vorgestellt, in ein Blogbeitrag, sein neues großartiges Sprachmodell, Claude 3! Die „ethische“ KI behauptet, bei vielen multimodalen Tests OpenAIs GPT-4 und Googles Gemini 1.0 zu übertreffen. Das ist ehrgeizig!

Claude 3: Welche Änderungen gegenüber der Vorgängerversion?

Claude 3 ist eine Weiterentwicklung des Claude-Sprachmodells und funktioniert nach dem gleichen Prinzip wie ChatGPT: Sie müssen lediglich eine Frage über eine Schnittstelle stellen, damit die KI in einer natürlichen Sprache antwortet. Anthropic kündigte drei Sprachmodelle an: Claude 3 Haiku, Claude 3 Sonnet und Claude 3 Opus.

Sie verfügen über erweiterte Fähigkeiten in den Bereichen Analyse und Prognose, die Erstellung differenzierter Inhalte, die Generierung von Code und die Konversation in anderen Sprachen als Englisch, wie Spanisch, Japanisch und Französisch, sowie die Lösung mathematischer Probleme und die Fähigkeit, logisches Denken zu simulieren Das Opus-Modell ist das fortschrittlichste Modell der Serie. „Bei komplexen Aufgaben ein nahezu menschliches Maß an Verständnis und Komfort bieten und sich der allgemeinen Intelligenz annähern“. Nur das ! Außerdem erzielt es bei vielen Schlüsselkriterien der wichtigsten Benchmarking-Tools bessere Ergebnisse als GPT-4. Anthropic verspricht auch nahezu sofortige Ergebnisse für Aufgaben wie Live-Kundenchat, automatische Vervollständigung und Datenextraktion.

Siehe auch  59 % der B2B-Vermarkter nutzen ChatGPT im Rahmen ihrer Arbeit

Ebenfalls neu: KIs werden multimodal und können eine Vielzahl visueller Formate verarbeiten, darunter Fotos, Tabellen, Diagramme und technische Diagramme. Allerdings können sie noch keine Bilder erzeugen.

Claude 3 Opus: das mächtigste der großen Sprachmodelle

Claude 3 Opus ist das effizienteste Modell von Anthropic und erzielt selbst bei komplexen Aufgaben beeindruckende Ergebnisse. „Es kann auf offene Fragen und unbekannte Szenarien mit bemerkenswerter Fließfähigkeit und menschenähnlichem Verständnis reagieren. Opus zeigt uns die extremen Grenzen dessen, was mit generativer KI möglich ist.“erklärt das Unternehmen.

Damit übertrifft es seine Mitbewerber bei den gängigsten Bewertungskriterien für KI-Systeme, einschließlich Expert Undergraduate Knowledge (MMLU), mit einer Punktzahl von 86,8 %, verglichen mit 86,4 % für GPT-4 und 83,7 % für Gemini 1.0 Ultra sowie grundlegender Mathematik ( GSM8K) mit einer Punktzahl von 95 %, verglichen mit 92 % für GPT-4 und 94,4 % für Gemini 1.0 Ultra. Bei einigen Programmierbenchmarks wie HumanEval ist der Abstand noch größer, wo Opus eine Punktzahl von 84,9 % erreichte, verglichen mit nur 67 % für GPT-4 und 74,4 % für Gemini 1.0 Ultra. Es übertraf das Modell von OpenAI auch bei mehreren allgemeinen Wissens- und Argumentationstests leicht.

© Anthropic

Um verschiedene KI-Modelle zu vergleichen, verwenden wir eine Maßeinheit namens Token (Token, auf Englisch), was es ermöglicht, den Grad der Analyse und des Auswendiglernens zu bestimmen. Claude 3 Opus hat ein Popup mit 200.000 Token. Das heißt, es ist möglich, ihm Dokumente mit einem Gesamtumfang von rund 150.000 Wörtern zu geben und ihm Fragen dazu zu stellen. Anthropic sagt jedoch, dass es eine Million Token überschreiten kann. Das ist ungefähr das, was Gemini 1.5 leistet, und viel mehr als GPT-4 und seine 128.000 Token. Aus diesem Grund kann es zur Aufgabenautomatisierung (Planung und Ausführung komplexer Aktionen über APIs und Datenbanken, interaktive Codierung), für Forschung und Entwicklung (Forschungsüberprüfung, Brainstorming und Hypothesengenerierung, Arzneimittelentwicklung) und für Strategien (erweiterte Analyse von) verwendet werden Diagramme und Grafiken, Finanz- und Markttrends, Prognosen).

Siehe auch  ChatGPT veröffentlicht Lehrerleitfaden für den KI-Einsatz im Klassenzimmer

Claude 3 Sonnet und Haiku: günstigere Modelle

Anthropic stellte außerdem seine beiden weiteren Claude-3-Modelle Sonnet und Haiku vor, die ebenfalls über ein Popup-Fenster mit 200.000 Token verfügen. Der erste wird beschrieben als „Das ideale Gleichgewicht zwischen Intelligenz und Geschwindigkeit, insbesondere für Unternehmens-Workloads.“ Die Leistung ist solide und die Kosten sind niedriger als bei den beiden anderen Modellen. Kurz gesagt, es verfügt über eine große Ausdauer bei groß angelegten KI-Einsätzen. Seine Verwendungsmöglichkeiten sind vielfältig: Datenverarbeitung, Verkauf, Codegenerierung, Qualitätskontrolle, Textanalyse aus Bildern usw.

39490465
© Anthropic

Haiku präsentiert sich seinerseits als das schnellste und kompakteste Modell mit nahezu sofortiger Reaktionsfähigkeit. „Es reagiert mit beispielloser Geschwindigkeit auf einfache Anfragen und Wünsche. Benutzer werden in der Lage sein, nahtlose KI-Erlebnisse zu schaffen, die menschliche Interaktionen nachahmen.“, erklärt Anthropic. Es kann insbesondere für Content-Moderation (Erkennung riskanter Verhaltensweisen oder Kundenwünsche) und wirtschaftlicher Aufgaben (optimierte Logistik, Bestandsverwaltung, Gewinnung von Informationen aus unstrukturierten Daten) eingesetzt werden.

Claude 3: Wo können wir sie testen?

Die Originalität von Claude ergibt sich aus der Tatsache, dass es sich um eine „ethische“ KI handelt. Im Vergleich zu Claude 2 ist die Wahrscheinlichkeit, dass Claude Opus, Sonnet und Haiku die Antwort auf Textbefehle verweigern, die gegen Systemleitplanken stoßen, deutlich geringer. Claude-3-Modelle zeigen somit ein differenzierteres Verständnis von Anfragen, erkennen echten Schaden und weigern sich seltener, auf harmlose Aufforderungen zu reagieren.

39490464
© Anthropic

Aber es geht noch viel weiter. Alex Albert, prompter Ingenieur Bei Anthropic hatte ich Spaß daran, das Opus-Modell im Rahmen eines „Nadel im Heuhaufen“-Tests in die Falle zu locken. Dabei geht es darum, einen zufälligen Satz (die Nadel) – hier an Pizzabelag erinnernd – in einen Informationskörper einzufügen, der sich überhaupt nicht mit demselben Thema befasst (den Heuhaufen) – hier konzentrierten sie sich auf Programmiersprachen – und dann eine Frage zu stellen Das kann nur anhand der in der Nadel enthaltenen Informationen beantwortet werden. Opus gelang es nicht nur, die berühmte „Nadel“ zu finden, sondern er erkannte auch, dass sie eingeführt worden war, um seine Aufmerksamkeitsfähigkeiten zu testen, und dass sie keinen Zusammenhang mit den übrigen bereitgestellten Dokumenten hatte. „Ich vermute, dass dieser ‚Fakt‘ über Pizzabeläge als Scherz eingefügt wurde oder um zu testen, ob ich aufgepasst habe, da er überhaupt nicht zu den anderen Themen passt. Die Dokumente enthalten keine weiteren Informationen zu Pizzabelägen.“, er antwortete. Bluffen!

Claude 3 wurde in erster Linie für professionelle Anwender entwickelt, da es sich nach Angaben des Unternehmens besonders für die Überwachung eignet „komplexe, mehrstufige Anleitungen“ et „die Richtlinien zur Markenstimme und -reaktion einzuhalten und Kundenerlebnisse zu entwickeln, denen unsere Benutzer vertrauen können“. Die Sonnet- und Opus-Versionen sind bereits über den Claude AI-Chatbot und Anthropic APIs in 159 Ländern verfügbar – jedoch nicht in Frankreich. Sonnet ist für Benutzer, die Claude nutzen, kostenlos zugänglich, während Opus nur Claude Pro-Abonnenten zur Verfügung steht. Haiku wird bald verfügbar sein.

Siehe auch  Microsoft stellt den gestürzten KI-Guru Sam Altman ein, während sich der ChatGPT-Erfinder auflöst

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein