[ad_1]

In einem bahnbrechenden Schritt in der Welt der KI und LLMs (Large Language Models) hat Microsoft Phi-2 eingeführt, ein kompaktes oder kleines Sprachmodell (SLM). Phi-2 ist als aktualisierte Version von Phi-1.5 positioniert und ist derzeit über den Azure AI Studio-Modellkatalog zugänglich.

Microsoft behauptet, dass dieses neue Modell in verschiedenen generativen KI-Benchmarktests größere Pendants wie Llama-2, Mistral und Gemini-2 übertreffen kann.

Phi-2, das Anfang dieser Woche nach einer Ankündigung von Satya Nadella auf der Ignite 2023 vorgestellt wurde, ist das Ergebnis der Bemühungen des Forschungsteams von Microsoft.

Dem generativen KI-Modell werden Attribute wie „gesunder Menschenverstand“, „Sprachverständnis“ und „logisches Denken“ zugeschrieben. Microsoft behauptet, dass Phi-2 bei bestimmten Aufgaben sogar Modelle übertreffen kann, die 25-mal so groß sind.

Phi-2 wurde mithilfe von Daten in „Lehrbuchqualität“ trainiert, darunter synthetische Datensätze, Allgemeinwissen, Theory of Mind, tägliche Aktivitäten und mehr. Es ist ein transformatorbasiertes Modell mit Funktionen wie einem Vorhersageziel für das nächste Wort.

Microsoft gibt an, dass das Training von Phi-2 im Vergleich zu größeren Modellen wie GPT-4, bei denen Berichten zufolge etwa 90 bis 100 Tage für das Training mit Zehntausenden A100-Tensor-Core-GPUs in Anspruch genommen werden, einfacher und kostengünstiger ist.

Die Fähigkeiten von Phi-2 gehen über die Sprachverarbeitung hinaus, da es komplexe mathematische Gleichungen und physikalische Probleme lösen sowie Fehler in Schülerberechnungen identifizieren kann. In Benchmark-Tests zu vernünftigem Denken, Sprachverständnis, Mathematik und Codierung hat Phi-2 Modelle wie das 13B Llama-2 und das 7B Mistral übertroffen.

Bemerkenswert ist, dass es auch das 70B Llama-2 LLM deutlich übertrifft und sogar das GoogleGemini Nano 2 übertrifft, ein 3,25B-Modell, das für die native Ausführung auf google Pixel 8 Pro entwickelt wurde.

Siehe auch  ChatGPT-basiertes Krypto-Bot-Netzwerk auf X entdeckt

Im sich schnell entwickelnden Bereich der Verarbeitung natürlicher Sprache erweisen sich kleine Sprachmodelle als leistungsstarke Konkurrenten, die gegenüber den viel häufigeren LLMs oder großen Sprachmodellen eine Reihe von Vorteilen bieten, die auf spezifische Anwendungsfälle und kontextbezogene Anforderungen zugeschnitten sind. Diese Vorteile verändern die Landschaft der Sprachverarbeitungstechnologien. Hier sind einige wichtige Vorteile kompakter Sprachmodelle:

Recheneffizienz: Kleine Sprachmodelle erfordern weniger Rechenleistung für Training und Inferenz, was sie zu einer praktikableren Option für Benutzer mit begrenzten Ressourcen oder auf Geräten mit geringerer Rechenleistung macht.

Schnelle Schlussfolgerung: Kleinere Modelle zeichnen sich durch schnellere Inferenzzeiten aus und eignen sich daher gut für Echtzeitanwendungen, bei denen eine geringe Latenz für den Erfolg von entscheidender Bedeutung ist.

Ressourcenschonend: Kompakte Sprachmodelle verbrauchen aufgrund ihres Designs weniger Speicher und eignen sich daher ideal für die Bereitstellung auf Geräten mit begrenzten Ressourcen, z. B. Smartphones oder Edge-Geräten.

Energieeffizient: Aufgrund ihrer geringeren Größe und Komplexität verbrauchen kleine Modelle sowohl beim Training als auch bei der Inferenz weniger Energie und eignen sich für Anwendungen, bei denen die Energieeffizienz von entscheidender Bedeutung ist.

Reduzierte Trainingszeit: Das Training kleinerer Modelle ist im Vergleich zu größeren Modellen ein zeiteffizienter Prozess und bietet einen erheblichen Vorteil in Szenarien, in denen eine schnelle Modelliteration und -bereitstellung unerlässlich ist.

Verbesserte Interpretierbarkeit: Kleinere Modelle sind oft einfacher zu interpretieren und zu verstehen. Dies ist besonders wichtig bei Anwendungen, bei denen die Interpretierbarkeit und Transparenz des Modells von größter Bedeutung ist, wie beispielsweise im medizinischen oder rechtlichen Kontext.

Kostengünstige Lösungen: Das Training und der Einsatz kleiner Modelle sind sowohl hinsichtlich der Rechenressourcen als auch der Zeit kostengünstiger. Diese Zugänglichkeit macht sie zu einer praktikablen Wahl für Einzelpersonen oder Organisationen mit begrenzten Budgets.

Siehe auch  Studie stellt Ungenauigkeiten in den ChatGPT-Antworten von OpenAI auf Fragen zur Softwareentwicklung fest

Maßgeschneidert für bestimmte Domänen: In bestimmten Nischen- oder domänenspezifischen Anwendungen kann sich ein kleineres Modell als ausreichend und geeigneter erweisen als ein großes, universelles Sprachmodell.

Es ist wichtig zu betonen, dass die Entscheidung zwischen kleinen und großen Sprachmodellen von den spezifischen Anforderungen der jeweiligen Aufgabe abhängt. Während große Modelle sich durch die Erfassung komplizierter Muster in unterschiedlichen Daten auszeichnen, erweisen sich kleine Modelle in Szenarien, in denen Effizienz, Geschwindigkeit und Ressourcenbeschränkungen Vorrang haben, als unschätzbar wertvoll.

(Mit Beiträgen von Agenturen)

[ad_2]

5/5 - (296 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein