Vor einem Monat kündigte Adobe an Glühwürmchen, seinen Einstieg in das generative KI-Spiel. Ursprünglich lag der Fokus von Firefly auf der Generierung kommerziell sicherer Bilder, aber das Unternehmen erweitert seine Technologie nun über Standbilder hinaus. Wie das Unternehmen heute bekannt gab, wird es Firefly in Kürze in seine Creative Cloud-Video- und Audioanwendungen integrieren. Um es klar zu sagen, Sie können Firefly (noch) nicht verwenden, um benutzerdefinierte Videos zu erstellen. Stattdessen liegt der Schwerpunkt hier darauf, es jedem einfacher zu machen, Videos zu bearbeiten, mit nur wenigen Worten Farbkorrekturen durchzuführen, Musik und Soundeffekte hinzuzufügen und Titelkarten mit animierten Schriftarten, Grafiken und Logos zu erstellen. Firefly verspricht jedoch auch, Skripte automatisch in Storyboards und Vorabvisualisierungen umzuwandeln – und es wird B-Roll empfehlen, um Videos zu beleben.
Vielleicht ist das Highlight dieser versprochenen neuen Funktionen die Möglichkeit, ein Video farblich zu korrigieren, indem man einfach mit wenigen Worten beschreibt, wie ein Video aussehen soll (denken Sie an „goldene Stunde“ oder „helles Gesicht“).
Es ist kein Geheimnis, dass die Farbkorrektur eine Kunst ist – und den meisten Menschen nicht leicht fällt. Jetzt wird jeder in der Lage sein, die gewünschte Stimmung und den Ton einer Szene zu beschreiben, und die Video-Tools von Adobe werden diesem Beispiel folgen. In vielerlei Hinsicht ist diese Demokratisierung von Fähigkeiten das Herzstück dessen, was Adobe mit Firefly in seinen Kreativtools macht.
Zu den weiteren neuen KI-basierten Funktionen gehört die Möglichkeit, benutzerdefinierte Sounds und Musik zu generieren. Firefly hilft Redakteuren auch bei der Erstellung von Untertiteln, Logos und Titelkarten, indem sie beschreiben, wie sie aussehen sollen. Auch das sind etwas spezialisierte Fähigkeiten, die eine gewisse Vertrautheit mit After Effects und Premiere erfordern.
Der eigentliche Game Changer ist jedoch, dass Adobe plant, Firefly auch zum Lesen von Skripten und zum automatischen Generieren von Storyboards und Vorabvisualisierungen zu verwenden. Das könnte eine enorme Zeitersparnis sein – und ich wäre nicht überrascht, wenn Sie diese Videos auf TikTok sehen würden.
Es ist erwähnenswert, dass wir bisher nur Adobes eigene Demos dieser Funktionen gesehen haben. Wie gut sie in der Praxis funktionieren, bleibt abzuwarten.
Das Ziel von Adobe ist es, sicherzustellen, dass alle seine generativen KI-Tools sicher in einem kommerziellen Umfeld verwendet werden können. Bei seinem Generator für generative Bilder bedeutete dies, dass es nur mit einer begrenzten Anzahl von Bildern trainiert werden konnte, die entweder gemeinfrei oder Teil seines Adobe Stock-Dienstes waren. Dies bedeutet jedoch auch, dass es im Vergleich zu Midjourney oder Stable Diffusion etwas eingeschränkter ist.