Ich habe neulich bei ProMat mit Peter Chen, Mitbegründer und CEO von Covariant, tief eingetaucht. Das Timing war entweder perfekt oder schrecklich, je nachdem, wen Sie fragen. Ich bin mir sicher, dass die Kommunikationsleute des Startups begeistert sind, dass ich eine Woche später anlässlich einer neuen Finanzierungsrunde ein Follow-up schreibe.
Unabhängig davon sind 75 Millionen US-Dollar eine schwer zu ignorierende Zahl – zumal die Verlängerung der Serie C die Gesamterhöhung des KI-Unternehmens auf 222 Millionen US-Dollar erhöht. Bestehende Investoren Radical Ventures und Index Ventures führten die Runde an, die auch wiederkehrende (Canada Pension Plan Investment Board und Amplify Partners) und neue (Gates Frontier Holdings, AIX Ventures und Northgate Capital) Investoren umfasst. Die Runde ergänzt eine im Juli 2021 angekündigte Serie C im Wert von 80 Millionen US-Dollar.
„Diese Investition ermöglicht es uns, das Covariant Brain als leistungsfähigeres Basismodell weiterzuentwickeln und das Covariant Brain auf noch mehr Anwendungsfälle in einer Vielzahl von Sektoren anzuwenden“, sagt Chen gegenüber TechCrunch. „Da die E-Commerce-Nachfrage weiter wächst und die Belastbarkeit der Lieferkette immer wichtiger wird, haben wir enorme Fortschritte mit globalen Einzelhändlern und Logistikanbietern gemacht und freuen uns darauf, bald weitere Einzelheiten zu diesen Partnerschaften bekannt zu geben.“
Auf der Messe im letzten Monat wurde mir auch eine Demo der Technologie von Covariant präsentiert. Es ist ziemlich beeindruckend, wenn Sie wissen, was unter der Haube vor sich geht, um das Picken und Platzieren anzutreiben. Das Herzstück des Logistikspiels ist das Covariant Brain, das eine riesige Datenbank mit potenziellen Verpackungsgrößen, -formen und -materialien auf der Grundlage realer Picks aufbaut.
In unserem Gespräch verwendete Chen generative KI/ChatGPT als Analogie. Es ist jedoch mehr als nur eine schwache Verbindung zum neuesten Hype-Zyklus, da drei der vier Mitbegründer des Teams eine direkte Verbindung zu OpenAI haben.
Chen sagt:
Vor dem kürzlich erschienenen ChatGPT gab es viele KIs zur Verarbeitung natürlicher Sprache. Suchen, übersetzen, Stimmungserkennung, Spam-Erkennung – es gab jede Menge KIs für natürliche Sprache. Der Ansatz vor GPT besteht darin, dass Sie für jeden Anwendungsfall eine bestimmte KI darauf trainieren, indem Sie eine kleinere Teilmenge von Daten verwenden. Schauen Sie sich jetzt die Ergebnisse an, und GPT schafft im Grunde das Gebiet der Übersetzung ab, und es ist nicht einmal auf die Übersetzung trainiert. Der Ansatz des Basismodells ist im Grunde genommen, anstatt kleine Datenmengen zu verwenden, die spezifisch für eine Situation sind, oder ein Modell zu trainieren, das spezifisch für einen Umstand ist, trainieren wir ein großes Basis-generalisiertes Modell mit viel mehr Daten, sodass die KI allgemeiner ist.
Die Finanzierung wird verwendet, um den Einsatz des Systems von Covariant bei Einzelhändlern und Logistikunternehmen voranzutreiben.