Ein neues Modell der künstlichen Intelligenz, das Open Source ist, „auf dem Gerät“ ausgeführt werden kann und kostenlos installiert werden kann, schneidet bei einigen wichtigen Tests genauso gut ab wie chatgpt.
Entwickelt von einem französischen Startup Mistral-KIDas Modell heißt Mixtral 8x7B und schneidet nachweislich bei Benchmarks in Naturwissenschaften, Mathematik, Codierung und Argumentation gut ab.
Mistral AI sagt, dass es sich für offene Modelle einsetzt, dies über einen Torrent-Link verfügbar macht und auf der Open-Source-KI-Plattform Hugging Face bereitstellt. Es wurde auch in KI-Aggregatoren von Drittanbietern wie Poe verfügbar gemacht und zur Installation auf lokalen Geräten bereitgestellt.
Was ist Mixtral und warum ist es wichtig?
Mixtral 8x7B ist das zweite Modell von Mistral AI und ersetzt 7B, das an sich bei Standardtests gut abgeschnitten hat. Bei der neuen KI handelt es sich um ein „Mix-of-Experten-Modell“, das mehrere Entscheidungsebenen nutzt, um Reaktionen und Genauigkeit zu verbessern.
Es steht nicht nur zum Download und zur freien Nutzung zur Verfügung, sondern ist auch ein offenes Gewichtungsmodell, das heißt, es kann neu trainiert und in anderen Formaten verwendet werden. Gewichte sind Informationsbits, die das Wissen darstellen, das die KI während der Trainingsläufe gelernt hat.
Dies ist Teil einer wachsenden Klasse von Open-Source-KI-Modellen, zu denen StableLM von Stable Diffusion, Llama 2 von Meta und BLOOM von Hugging Face gehören.
Wie Mixtral im Vergleich abschneidet
Es wurde auf Daten trainiert, die aus dem offenen Web extrahiert wurden, und ist ein spärliches Modell, das mehr Parameter ermöglicht und gleichzeitig die Größe und Anzahl der Parameter pro Token kontrolliert. Obwohl es sich um ein 46,7-Milliarden-Parametermodell handelt, verwendet es nur 12,9 Milliarden pro Token und nicht die vollständige Anzahl.
Diese Effizienz bedeutet, dass sie Fähigkeiten auf GPT-Niveau auf einem Bruchteil der Größe erreichen können. Bei den gängigsten Benchmarks, im Vergleich zu Llama mit 70 Milliarden Parametern und GPT-3.5 mit 175 Milliarden, übertrifft es beide in vier davon und erreicht sie in anderen.
Andere Tests haben gezeigt, dass es auch in puncto Genauigkeit gut abschneidet und Llama 2 im TruthfulQA-Benchmark um 20 Prozentpunkte übertrifft. Mistral AI behauptet, es sei auch weniger voreingenommen als andere Modelle und in einer Reihe von Sprachen verfügbar, darunter Französisch, Spanisch und Englisch.
Was ist Mistral AI?
Wir freuen uns sehr, unser zweites Modell, Mixtral 8x7B, herauszubringen, ein Expertenmodell mit offener Gewichtsmischung. Mixtral erreicht oder übertrifft Llama 2 70B und GPT3.5 bei den meisten Benchmarks und verfügt über die Inferenzgeschwindigkeit eines 12B-Modells mit hoher Dichte. Es unterstützt eine Kontextlänge von 32.000 Token. (1/n) https://t.co/WdGTSARKC1 pic.twitter.com/LQhXSlZ9jO11. Dezember 2023
Mistral AI entwickelt sich schnell zu einem wichtigen Akteur im Bereich der generativen KI, unterzeichnet Partnerschaftsverträge mit google und veröffentlicht Open-Source-Modelle, die die großen Akteure übertreffen.
Allerdings existierte das Unternehmen vor einem Jahr noch nicht, als ChatGPT zum ersten Mal startete, und entwickelte sich in weniger als einem Jahr von einer Idee auf dem Papier zu einem der am schnellsten wachsenden KI-Labore.
Das französische Startup hat in seiner ersten Finanzierungsrunde vor gerade einmal sieben Monaten 105 Millionen Euro (115 Millionen US-Dollar) eingesammelt, 500 Millionen Euro (549 Millionen US-Dollar) letzten Monat und weitere 365 Millionen Euro (400 Millionen US-Dollar) letzte Woche. Der Wert beträgt jetzt 2 Milliarden Euro (2,19 Milliarden US-Dollar), was doppelt so viel ist wie der erforderliche Schwellenwert für den Einhornstatus.
Das schnelle Wachstum von Mistral und anderen Anbietern offener Modelle wie StabilityAI und der offenen Plattform Hugging Face zeigt die wachsende Bedeutung von KI-Modellen, die lokal ausgeführt, unabhängig von einem großen Unternehmen gesteuert und bei Bedarf angepasst werden können.
Mehr von Tom's Guide