Obwohl noch nicht verfügbar, behauptet der Hersteller von chatgpt, dass das generative KI-Tool in der Lage sein wird, aus schriftlichen Nachrichten hochwertige Videos zu erstellen.

WERBUNG

Der ChatGPT-Hersteller hat seinen nächsten Sprung in die generative künstliche Intelligenz bekannt gegeben (IA) mit einem Tool, das als Reaktion auf schriftliche Befehle sofort kurze Videos produziert.

Der neue Text-zu-Video-Generator von OpenAI mit Sitz in San Francisco und dem Namen Sora ist nicht der erste seiner Art. Zu den weiteren Unternehmen, die eine ähnliche Technologie entwickelt haben, gehören google, Meta und das Startup Runway ML.

Aber die hohe Qualität der von OpenAI produzierten Videos – von denen einige produziert wurden, nachdem sein CEO Sam Altman Social-Media-Nutzer gebeten hatte, Ideen für schriftliche Nachrichten einzusenden – hat Beobachter verblüfft und gleichzeitig Befürchtungen über ethische und gesellschaftliche Auswirkungen dieser Technologie geweckt.

„Eine lehrreiche Kochsitzung für hausgemachte Gnocchi, geleitet von einer Social-Media-Influencerin, in einer rustikalen toskanischen Küche mit filmischer Beleuchtung.“das ist die Idee, die ein unabhängiger Fotograf aus New Hampshire, USA, auf X, ehemals Twitter, vorgeschlagen hat.

Kurz darauf antwortete Sam Altman mit einem realistischen Video, in dem er beschrieb, was der Fotograf wollte.

OpenAI konsultiert Künstler, bevor es das Tool auf den Markt bringt

Das Tool ist noch nicht öffentlich verfügbar und OpenAI hat nur wenige Informationen darüber preisgegeben, wie es erstellt wurde.

Das Unternehmen, das von bestimmten Autoren und von der verklagt wurde „New York Times“ wegen der Nutzung urheberrechtlich geschützter schriftlicher Werke als Datenbank für ChatGPT versäumte, auch die Quellen der für Sora verwendeten Bilder und Videos offenzulegen.

Siehe auch  Mercedes-Benz kooperiert mit Microsoft, um ChatGPT in das MBUX-Multimediasystem zu importieren

Das Unternehmen zahlt eine Lizenzgebühr an die„Assoziierte Presse“ für die Verwertung von Nachrichtentexten aus seinen Archiven.

OpenAI sagte in einem Blogbeitrag, dass es mit Künstlern, politischen Entscheidungsträgern und anderen zusammenarbeitete, bevor es das neue Tool veröffentlichte.

„Wir arbeiten mit Red Teamern zusammen – Experten in Bereichen wie Fehlinformationen, hasserfüllten Inhalten und Voreingenommenheit – die das Modell auf kontroverse Weise testen.“erklärt das Unternehmen.

„Wir entwickeln außerdem Tools zur Erkennung irreführender Inhalte, beispielsweise einen Erkennungsklassifikator, der erkennen kann, ob ein Video von Sora erstellt wurde.“.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein