[ad_1]

(Yicai) 6. November – 01.AI, ein Einhorn von Li Kaifu, Vorsitzender des chinesischen Risikokapitalpioniers Sinovation Ventures, hat sein erstes chatgpt-ähnliches großes Sprachmodell auf den Markt gebracht, das sowohl Englisch als auch Chinesisch sprechen kann.

Das Startup stellte heute Yi vor, ein Open-Source-Grundmodell, nachdem es eine neue Finanzierungsrunde unter der Leitung von Alibaba Cloud abgeschlossen hatte und einen Wert von über 1 Milliarde US-Dollar erreichte, berichtete die Tech-Nachrichtenagentur 36Kr.

Vor der Spendenaktion beliefen sich die Schulden von 01.AI aufgrund der Kosten für Modellschulung und Rechenleistung auf mehrere zehn Millionen US-Dollar, verriet Li. Grundlegende Modelle erfordern enorme Ressourcen, um Eingabeaufforderungen mit Text oder Code beantworten zu können, während weitere Modelle mit spezifischeren Aufgaben darauf aufbauen können.

01.AI hat seit Juli Dutzende Kernmitglieder von Branchenriesen wie Alibaba Group Holding, Baidu, google und Microsoft angezogen, nachdem Li im März begonnen hatte, nach Talenten zu suchen, um das Startup für künstliche Intelligenz zu gründen. Der Informatikexperte gründete Sinovation im Jahr 2009, nachdem er Global Vice President von Microsoft sowie GVP von Google und China-Präsident gewesen war.

Ähnlich wie OpenAI, der Entwickler von ChatGPT, zielt 01.AI darauf ab, KI zum Mainstream zu machen. Im Zeitalter der KI würden sich die größten Geschäftschancen in Business-to-Customer-Super-Apps ergeben, sagte Li und fügte hinzu, dass 01.AI darauf abzielt, eine Plattform zu schaffen, die so vielfältig und groß ist wie WeChat und Douyin, die chinesische Version von TikTok.

Am 2. November hat das Startup zwei Basismodelle mit sechs Milliarden und 34 Milliarden Parametern auf Hugging Face, einer Open-Source-KI-Community, hochgeladen. Seit gestern steht der Yi-34B auf Platz eins der beiden Bestenlisten der vorab trainierten LLMs und C-Eval, einer chinesischen Evaluierungssuite.

Siehe auch  Artikel wurde zurückgezogen, als Autoren dabei erwischt wurden, wie sie ChatGPT zum Schreiben verwendeten

Laut Li waren die Basismodelle aufgrund der hohen Wiederholungsrate und der geringen Qualität eines Korpus öffentlicher Texte und Eingaben aus Datenbanken schwer zu trainieren. Das Team wählte drei Billionen Instanzen aus 100 Billionen Optionen aus und Yi wurde aufgrund der geringen Qualität der letztgenannten Quelle auf mehr englischen als auf chinesischen Eingaben geschult.

Herausgeber: Emmi Laine

[ad_2]

5/5 - (440 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein