Anthropic kündigte am 4. sein KI-Modell Claude 3 an und behauptete, dass seine Denk- und Rechenfähigkeiten die von GPT-4 übertreffen, was den KI-Wettbewerb erneut auf einen neuen Höhepunkt brachte.
Die Fundraising-Leistung von Anthropic seit seiner Gründung war ziemlich beeindruckend: google investierte im Jahr 2022 300 Millionen US-Dollar; OpenAI erhielt im Jahr 2023 Investitionen in zweistelliger Milliardenhöhe von Microsoft, und Amazon kündigte außerdem eine Investition von 4 Milliarden US-Dollar in Anthropic an, wodurch AWS zum Hauptinvestor wurde Cloud-Dienstleister für Anthropic.
Heute hat Anthropic einen Wert von 18,4 Milliarden US-Dollar (ca. 550 Milliarden NT-Dollar). Sogar Filmstar Ashton Kutcher (gespielt von Steve Jobs in „Jobs“), der sich seit langem mit dem Bereich der KI beschäftigt, hat in Anthropic investiert.
Tatsächlich wurde Anthropic von ehemaligen OpenAI-Mitarbeitern gegründet: Diese sieben „übergelaufenen“ Mitarbeiter gaben an, dass sie hinsichtlich der Sicherheitsaspekte von KI-Modellen andere Visionen als OpenAI haben.
Was dachten sich die „Sieben Verräter“, als sie Anthropic gründeten?
Anthropic, ein neues Startup von OPenAI „Seven Traitors“
CEO Dario Amodei sagte, dass der Kernwert von Anthropic darin besteht, KI zu schaffen, vor der Menschen keine Angst haben.
Als ehemaliger Vizepräsident für Forschung und Entwicklung bei OpenAI ist Dario Amodei für den Bau von GPT-2 und GPT-3 verantwortlich. Dario Amodei ist seit mehr als vier Jahren bei OpenAI und hat viele KI-Sicherheitsstudien geleitet, was dazu führte, dass er allmählich desillusioniert von OpenAI wurde. Um es einfach auszudrücken: Dario Amodei glaubt, dass sich sichere KI auf eine KI bezieht, die nicht zu viele eigene Vermutungen anstellt und es den Menschen nicht schwer macht, ihr zu vertrauen oder Angst zu haben, wenn sie sie nutzt.
Am 22. November 2023 schickte OpenAI einen Brief an die Mitarbeiter, in dem er das Q*-Projekt „Autonome Systeme jenseits des Menschen“ bestätigte. Bereits 2021 beschloss Dario Amodei, sich seiner Schwester Daniela Amodei und fünf ehemaligen technischen Partnern von OpenAI anzuschließen. , gegründet Anthropisch.
▲ Anthropic-CEO Dario Amodei sagte, dass der Kernwert von Anthropic darin bestehe, KI zu schaffen, vor der Menschen keine Angst haben. (Quelle:Dario Amodei)
Um die Sicherheit hervorzuheben, gab Anthropic zu, dass die Leistung des KI-Systems möglicherweise begrenzt ist und das Modell nur auf den Inhalt der Trainingsdaten antwortet, ohne weitere „Vermutungen“ anzustellen. Allerdings hat die Frage, ob Anthropic Claude 3 bei einer so hohen Investition wirklich haltbar ist, in allen Gesellschaftsschichten Aufmerksamkeit erregt.
Es wird erwartet, dass Claude 3 den GPT-4-Status herausfordern wird
Zu den Modellen der Claude 3-Serie gehören: das niedrigste Niveau Claude 3 Haiku, das mittlere Niveau Claude 3 Sonnet und das höchste Niveau Claude 3 Opus.
In Bezug auf die Leistung können Benutzer im Vergleich zum Konkurrenten OpenAI GPT-4 mit 320.000 Tokens im Vergleich zu GPT-4 längere Inhalte eingeben. Alle drei Modelle der Claude-3-Serie akzeptieren mehr als eine Million Token-Eingaben. Claude 3 ist nicht mehr völlig kostenlos. Die Eingabegebühr pro Million Trainingseinheiten beträgt 0,25 bis 15 US-Dollar und die Ausgabe 1,25 bis 75 US-Dollar. Die Gebühren richten sich nach dem Grad der Modellentwicklung.
Trainingseinheit (Token): Wenn die KI großen Text verarbeitet, schneidet sie den Text zunächst in die kleinste grundlegende Trainingseinheit, indem sie beispielsweise Leerzeichen als Schneideeinheit verwendet.
▲ Alle drei Modelle der Claude 3-Serie können mehr als eine Million Tokens eingeben. Im Vergleich zu den 320.000 Tokens des Konkurrenten GPT-4 können Benutzer längere Inhalte eingeben. (Quelle:Anthropisch)
Zusätzlich zur Leistung verfügt Claude 3 über den gleichen Geist der „Sicherheit“ wie frühere Claude-Modelle: Durch die von Anthropic selbst entwickelte Trainingstechnologie wird während des Trainings eine „Verfassung“ formuliert, die es der KI ermöglicht, bestimmte Werte einzuhalten und verhindern, dass sich Benutzer bei der Interaktion mit der KI „verletzt“ fühlen. Allerdings ist Claude 3 nicht mehr das Gleiche wie das Vorgängermodell, das den Nutzern aufgrund mangelnden semantischen Verständnisses häufig eine Antwort verweigerte. Stattdessen kann Claude 3 die Semantik sorgfältiger verarbeiten, wodurch die Fehlerquote auf 5 bis 10 % sinkt.
▲ Claude 3 ist nicht mehr dasselbe wie das alte Modell, das Benutzern aufgrund mangelnden semantischen Verständnisses oft die Antwort verweigerte, aber die Semantik sorgfältiger verarbeiten kann und die Fehlerquote auf 5 % bis 10 % reduziert wird. (Quelle:Anthropisch)
Was ist der nächste Schritt für Anthropics Betonung des „menschlichen Werts“ der KI?
In Bezug auf den „menschlichen Wert“ von KI veranstaltete US-Vizepräsidentin Kamala Harris im vergangenen Jahr eine Online-Konferenz. Neben Microsoft, Google und OpenAI war auch Anthropic eingeladen, um darüber zu diskutieren, wie KI verantwortungsvoll entwickelt werden sollte.
Das Produkt OpenAI chatgpt bringt KI-Chatbots in den Alltag und macht KI für den täglichen Gebrauch verfügbar. Heutzutage erfreuen sich KI-Chatbots immer größerer Beliebtheit. Neben GPT haben verschiedene Unternehmen nacheinander Modelle auf den Markt gebracht: Google Bard und Anthropic Claude. Da OpenAI jedoch große finanzielle Mittel von Microsoft erhielt, kritisierten einige Wissenschaftler OpenAI nicht mehr als eine gemeinnützige Open-Source-Organisation, sondern als eine gewinnorientierte Closed-Source-Organisation.
Anthropic wächst allmählich und hat mehr Mittel von großen Unternehmen wie Google und Amazon erhalten. Es ist möglicherweise zu ideal, um an „menschlichen Werten“ festzuhalten. Ob die „Sieben Verräter“ von OpenAI OpenAI als Lektion aus der Vergangenheit nutzen können oder ob sie möglicherweise die Möglichkeit haben, den gleichen Weg wie OpenAI zu beschreiten, verdient Aufmerksamkeit.
(Dieser Artikel wurde geschrieben von Unternehmertreffen Nachdruck mit Genehmigung; Quelle des ersten Bildes:Anthropisch)
Weiterführende Literatur: