Ein neues Open-Source-KI-Modell, das „auf dem Gerät“ ausgeführt werden kann und kostenlos installiert werden kann, schneidet bei einigen wichtigen Tests genauso gut ab wie chatgpt.
Das vom französischen Startup Mistral AI entwickelte Modell heißt Mixtral 8x7B und hat sich bei wissenschaftlichen, mathematischen, Codierungs- und Argumentationskriterien als gut erwiesen.
Mistral AI engagiert sich nach eigenen Angaben für Open-Source-Modelle, indem es diese über einen Torrent-Link verfügbar macht und auf der Open-Source-KI-Plattform Hugging Face bereitstellt. Es wurde auch in KI-Aggregatoren von Drittanbietern wie Poe verfügbar gemacht und für die Installation auf lokalen Geräten bereitgestellt.
Was ist Mixtral und warum ist es wichtig?
Mistral 8x7B ist das zweite Modell von Mistral AI und ersetzt das 7B, das selbst in Standardtests gut abgeschnitten hat. Bei der neuen KI handelt es sich um ein „gemischtes Expertenmodell“, das mehrere Entscheidungsebenen nutzt, um Antworten und Genauigkeit zu verbessern.
Es steht nicht nur zum Download und zur kostenlosen Nutzung zur Verfügung, sondern ist auch ein offenes gewichtetes Modell, das heißt, es kann recycelt und in anderen Formaten verwendet werden. Gewichte sind Informationen, die das Wissen darstellen, das die KI während des Trainings erworben hat.
Es ist Teil einer wachsenden Klasse von Open-Source-KI-Modellen, zu denen StableLM von Stable Diffusion, Llama 2 von Meta und BLOOM von Hugging Face gehören.
Kommentar Mistral se vergleichen
Es wurde auf Daten aus dem offenen Web trainiert und ist ein spärliches Modell, das mehr Parameter ermöglicht und gleichzeitig die Größe und Anzahl der Parameter pro Token kontrolliert. Obwohl es sich um ein 46,7-Milliarden-Parametermodell handelt, werden nur 12,9 Milliarden pro Token und nicht die vollständige Anzahl verwendet.
Diese Effizienz bedeutet, dass sie auf einem Bruchteil ihrer Größe Funktionen auf GPT-Niveau erreichen können. Bei den gängigsten Benchmarks, im Vergleich zu Llama mit 70 Milliarden Parametern und GPT-3.5 mit 175 Milliarden, übertrifft es beide in vier von ihnen und liegt ihnen in anderen gleich.
Andere Tests zeigten, dass es auch in puncto Genauigkeit gut abschneidet und Llama 2 im TruthfulQA-Benchmark um 20 Prozentpunkte übertrifft. Mistral AI behauptet, es sei auch weniger voreingenommen als andere Modelle und in mehreren Sprachen verfügbar, darunter Französisch, Spanisch und Englisch.
Was ist Mistral AI?
Wir freuen uns sehr, unser zweites Modell, Mixtral 8x7B, auf den Markt zu bringen, eine Mischung aus Expertenmodellen mit offenem Gewicht. Mixtral erreicht oder übertrifft Llama 2 70B und GPT3.5 bei den meisten Benchmarks und verfügt über die Inferenzgeschwindigkeit eines dichten 12B-Modells. Es unterstützt eine Kontextlänge von 32.000 Token. (1/n) https://t.co/WdGTSARKC1 pic.twitter.com/LQhXSlZ9jO11. Dezember 2023
Mistral AI entwickelt sich schnell zu einem wichtigen Akteur im Bereich der generativen KI, unterzeichnet Partnerschaftsvereinbarungen mit google und veröffentlicht Open-Source-Modelle, die die großen Player übertreffen.
Allerdings existierte das Unternehmen vor einem Jahr noch nicht, als ChatGPT zum ersten Mal startete, und entwickelte sich in weniger als einem Jahr von einer Idee auf dem Papier zu einem der am schnellsten wachsenden KI-Labore.
Das französische Startup hat in seiner ersten Finanzierungsrunde vor gerade einmal sieben Monaten 105 Millionen Euro (115 Millionen US-Dollar) eingesammelt, letzten Monat 500 Millionen Euro (549 Millionen US-Dollar) und letzte Woche weitere 365 Millionen Euro (400 Millionen US-Dollar). Der Wert beträgt jetzt 2 Milliarden Euro (2,19 Milliarden US-Dollar), doppelt so viel wie der Schwellenwert, der zum Erreichen des Einhornstatus erforderlich ist.
Das schnelle Wachstum von Mistral und anderen Anbietern offener Modelle wie StabilityAI und der offenen Plattform Hugging Face zeigt die wachsende Bedeutung von KI-Modellen, die lokal ausgeführt, unabhängig von einem großen Unternehmen gesteuert und nach Bedarf skaliert werden können.