[Herausgeber Sun Jing/Umfassender Bericht]
Kinner Wisdom kündigte am 15. die Einführung des leichten und skalierbaren KI-Chips „KL730“ an, der mit dem 12-nm-Prozess von TSMC ausgestattet ist. Er verfügt nun über einen integrierten neuronalen Netzwerkprozessor (NPU) und Bildsignalprozessor (ISP) in Automobilqualität, um das fortschrittliche Fahren zu verbessern Das Hilfssystem (ADAS) kann nahtlos auf digitale Signale wie Bilder, Videos, Töne und Nanowellen zugreifen.
Kneron bricht aus dem GPU- und CPU-Marktsegment aus, verbessert die Leistung von KI-Chips und steigt in die drei wichtigsten Anwendungsszenarien ein
„Die CPU wird von den Amerikanern definiert und die GPU wird von NVIDIA Huang Renxun definiert, aber ich denke, der nächste KI-Chip wird von Kneron definiert“, geteilt von Liu Juncheng, Gründer und CEO von Kneron (im Folgenden als Kneron bezeichnet). ) Obwohl sein neuer KI-Chip KL730 in Bezug auf Bildverarbeitung und Logikoperationen nicht so stark ist wie Giganten wie Intel (Intel) und Huida (NVIDIA), bietet er die Vorteile eines geringen Energieverbrauchs und einer hohen Leistung in industriellen KI-Anwendungen Es bringt diese beiden Vorteile mit sich und hat Einzug in die drei Hauptanwendungsszenarien Edge-Server, Smart Home und ADAS gehalten.
Verglichen mit KL270, dem ersten Edge-KI-Chip, der die von Kneron im September 2020 eingeführte neuronale Netzwerkarchitektur Transformer unterstützt, ist die Leistung des neuen KL730-Chips drei- bis viermal höher als die ähnlicher Produkte in wichtigen Branchen wie den Tensorprozessoren von google. TPU) stieg um 150 % auf 200 %.
„Seit dem Aufkommen der generativen KI hat die Zunahme der Rechenleistung großer Sprachmodelle (LLM) dazu geführt, dass viel Geld für deren Wartung ausgegeben werden muss“, zitierte Liu Juncheng den Bericht des indischen Nachrichtenmagazins „Analytics India“ über OpenAI Dies kann auf die tägliche Wartung des chatgpt-Systems in Höhe von 700.000 US-Dollar zurückzuführen sein. Es wird Ende 2024 vor der Insolvenz stehen, und die Sicherheit und der niedrige Energieverbrauch des KL730 können LLM-bezogenen Unternehmen dabei helfen, erhebliche Mengen an Stromkosten einzusparen.
Darüber hinaus erweitert die KL730 die Unterstützung für das leichte GPT „NanoGPT“, das eine effektive Rechenleistung von 0,35 bis 4 Tera pro Sekunde bringen kann und so dem Bedarf nach Reduzierung des Energieverbrauchs und Erhöhung der Rechenleistung gerecht wird. Der KL730 ermöglicht es Benutzern, das GPT-Modell teilweise oder vollständig offline auf dem Terminal auszuführen, und arbeitet mit Kneons privatem und sicherem Edge-KI-Netzwerk KNEO zusammen, um die Ausführung von KI auf dem Edge-Gerät des Benutzers zu ermöglichen und so den Datenschutz besser zu gewährleisten.