OpenAI, das US-Unternehmen hinter dem chatgpt-one-year-on-how-has-it-affected-the-way-we-work/a-67588407″>ChatGPT-Chatbot und Dall-e-Bildgenerator, am Donnerstag vorgestellt KI-Anwendung das kurze realistische Videos produzieren kann.
Die Anwendung namens Sora kann mithilfe eines kurzen Textbefehls namens „Prompt“ qualitativ hochwertige Videos mit einer Länge von bis zu einer Minute erstellen, sagte OpenAI. Die Anwendung kann auch ein Foto in ein Video umwandeln oder ein kurzes Video verlängern.
Das Tool ist noch nicht öffentlich verfügbar. OpenAI-CEO Sam Altman on
Er lud Benutzer auch dazu ein, Eingabeaufforderungen auf X vorzuschlagen, und veröffentlichte die Ergebnisse dann schnell auf derselben Plattform. Dazu gehörten Videos von zwei Golden Retrievern beim Podcasting auf einem Berg und von einem „halb Ente, halb Drache, der mit einem Hamster in Abenteuerausrüstung auf dem Rücken durch einen wunderschönen Sonnenuntergang fliegt“.
Unterscheidet sich Sora wirklich von anderen KI-Tools?
Sora ist nicht die erste Text-zu-Video-KI-Anwendung auf dem Markt. google, Meta und das Startup Runway ML gehören zu den Unternehmen, die bereits ähnliche Technologien demonstriert haben.
Doch die hohe Qualität der von OpenAI angezeigten Videos überraschte Beobachter und ließ gleichzeitig Bedenken hinsichtlich der ethischen und gesellschaftlichen Implikationen aufkommen.
Das von Microsoft unterstützte Unternehmen hat auch nicht bekannt gegeben, welche Bild- und Videoquellen für das Training von Sora verwendet wurden. Offene KI war von der New York Times und einigen Autoren verklagt für die Verwendung urheberrechtlich geschützter Werke zum Trainieren von ChatGPT.
Werkzeug muss auf Sicherheit geprüft werden
Das in San Francisco ansässige Unternehmen OpenAI warnte davor, dass das „aktuelle Modell Schwächen aufweist“, wie z. B. die Verwechslung von links und rechts oder die mangelnde Wahrung der visuellen Kontinuität über die gesamte Länge eines Videos.
„Wir werden politische Entscheidungsträger, Pädagogen und Künstler auf der ganzen Welt einbeziehen, um ihre Anliegen zu verstehen und positive Anwendungsfälle für diese neue Technologie zu identifizieren“, sagte Open AI.
Das Unternehmen fügte hinzu, dass die Sicherheit von entscheidender Bedeutung sei und dass Sora mit kontroversen Tests, dem so genannten Red-Teaming, konfrontiert werde, bei dem engagierte Benutzer versuchen, die Plattform zum Scheitern zu bringen, unangemessene Inhalte zu produzieren oder unlauter zu werden.
dh/dj (AP, AFP, dpa)