Runwayein KI-Startup, das an der Entwicklung des KI-Bildgenerators Stable Diffusion mitgewirkt hat, hat sein erstes Unternehmen gestartet App gestern, um Benutzern Zugriff auf Gen-1 zu ermöglichen, sein generatives Video-zu-Video-KI-Modell. Die App ist derzeit nur auf iOS-Geräten verfügbar.
Mit der neuen App können Benutzer in wenigen Minuten ein Video von ihrem Telefon aus aufnehmen und ein KI-Video erstellen. Sie können auch jedes vorhandene Video in ihrer Bibliothek mithilfe von Textaufforderungen, Bildern oder Stilvoreinstellungen umwandeln.
Benutzer können aus der Runway-Liste mit Voreinstellungen wie „Cloudscape“ auswählen oder ihr Video so umwandeln, dass es wie eine Tonmalerei, eine Kohleskizze, eine Aquarellkunst, ein Papierorigami und mehr aussieht. Sie können auch ein Bild hochladen oder eine Idee in das Textfeld eingeben.
Die App generiert dann vier Vorschauen, aus denen Benutzer auswählen können. Sobald sie ausgewählt haben, welches ihnen am besten gefällt, dauert es ein paar Minuten, bis das Endprodukt entsteht. Wir haben die App selbst getestet und festgestellt, dass sie etwa 60 Sekunden oder länger dauerte. Manchmal dauerte die Generierung zwei Minuten.
Natürlich sind die Ergebnisse, wie bei jedem KI-Generator, nicht perfekt und sehen oft verzerrt oder seltsam aus. Im Allgemeinen mag das Konzept der KI-Videogeneratoren albern und möglicherweise sogar trickreich erscheinen. Da sich die Technologie jedoch im Laufe der Zeit weiterentwickelt und verbessert, könnte sie für Benutzer wertvoll sein. Content-Ersteller können beispielsweise ihre Social-Media-Beiträge aufpeppen.
Unabhängig davon fanden wir, dass die mobile App von Runway einfach zu bedienen war und es insgesamt Spaß machte, damit herumzuspielen.
Unten sehen Sie ein Beispiel, das wir anhand dessen erstellt haben ein Clip von Michael Scott aus „The Office“. Eine Textaufforderung, die wir eingegeben haben, war „realistische Puppe“.
(Warnung: Das Ergebnis ist erschreckend.)
Wir haben auch „3D-Animation“ ausprobiert, was gut geklappt hat.
Zugegeben, neben Pannen und verzerrten Gesichtern gibt es noch ein paar andere Vorbehalte.
Wenn Nutzer die kostenlose Version wünschen, gibt es ein Limit von 525 Credits und sie können nur Videos hochladen, die fünf Sekunden lang sind. Jede Sekunde eines Videos verbraucht 14 Credits.
Runway plant, in Zukunft auch längere Videos zu unterstützen, sagte Mitbegründer und CEO Cristóbal Valenzuela gegenüber TechCrunch. Die App werde weiter verbessert und neue Funktionen eingeführt, fügte er hinzu.
„Wir konzentrieren uns auf die Verbesserung von Effizienz, Qualität und Kontrolle. In den kommenden Wochen und Monaten werden Sie alle Arten von Updates sehen, von längeren Ausgaben bis hin zu Videos mit höherer Qualität“, sagte Valenzuela.
Beachten Sie außerdem, dass die App keine Nacktheit oder urheberrechtlich geschützten Werke generiert, sodass Sie keine Videos erstellen können, die den Stil beliebter IPs nachahmen.
Die neue mobile App von Runway verfügt über zwei Premium-Pläne: Standard (143,99 $/Jahr) und Pro (344,99 $/Jahr). Mit dem Standardplan erhalten Sie 625 Credits/Monat und weitere Premium-Funktionen wie 1080p-Video, unbegrenzte Projekte und mehr. Der Pro-Plan bietet 2.250 Credits/Monat und alle über 30 KI-Tools von Runway.
Einen Monat nach der Veröffentlichung von Gen-1 durch Runway, das im Februar auf den Markt kam, brachte Runway es auf den Markt Gen-2 Modell. Gen-2 ist wohl eine Weiterentwicklung der Text-zu-Bild-Modelle Stable Diffusion und DALL-E und ein Text-zu-Video-Generator, sodass Benutzer Videos von Grund auf erstellen können.
Laut Valenzuela hat Runway langsam damit begonnen, den Zugang zu seiner Closed Beta für Gen-2 bereitzustellen.
Die App unterstützt derzeit das Gen-1-Modell, aber Gen-2 wird bald zusammen mit den anderen KI-Tools von Runway, wie dem Bild-zu-Bild-Generator, verfügbar sein.
Meta und Google haben beide Text-zu-Video-Generatoren auf den Markt gebracht, die Make-A-Video bzw. Imagen heißen.
Runway hat seit seiner Einführung im Jahr 2018 verschiedene KI-gestützte Videobearbeitungssoftware entwickelt. Das Unternehmen verfügt über eine Vielzahl unterschiedlicher Tools Webbasierter VideoeditorB. Frame-Interpolation, Hintergrundentfernung, Unschärfeeffekte, eine Funktion zum Bereinigen oder Entfernen von Audio und Bewegungsverfolgung und viele andere.
Die Tools haben Influencern und sogar Film-/Fernsehstudios dabei geholfen, den Zeitaufwand für die Bearbeitung und Erstellung von Videos zu reduzieren.
Zum Beispiel die Team für visuelle Effekte „Everything Everywhere All at Once“ nutzte die Technologie von Runway, um die Szene im Film zu erschaffen, in der Evelyn (Michelle Yeoh) und Joy (Stephanie Hsu) sich in einem Multiversum befinden, wo sie in bewegliche Steine verwandelt wurden.
Darüber hinaus nutzte das Grafikteam hinter „The Late Show with Stephen Colbert“ von CBS Runway, um die stundenlange Bearbeitung auf nur fünf Minuten zu reduzieren. laut Art Director Andro Buneta.
Runway betreibt auch Runway Studios, seine Unterhaltungs- und Produktionsabteilung.