Das neue System von OpenAI mit dem Namen Sora hat sowohl Freude als auch Panik über seine Fähigkeiten hervorgerufen.

Sora ist ein videogenerierendes künstliches Intelligenzsystem, das als Reaktion auf einfache Anfragen realistische Szenen erstellt. Der CEO von OpenAI, Sam Altman, präsentierte eine Reihe von Beispielen dafür, wie es möglich ist, eine einfache Eingabeaufforderung zu erhalten und daraus dann ein Video zu erstellen.

Es löste sofort Begeisterung darüber aus, wie es den Menschen ermöglichen würde, ihre Ideen einfacher umzusetzen und Videos für eine Vielzahl von Situationen zu erstellen. Es führte jedoch auch zu Befürchtungen darüber, was das System leisten könnte.

Warum sind die Leute aufgeregt?

Ein Teil der Aufregung liegt allein an der Technologie selbst: Sie ermöglicht es den Menschen, sich ein Szenario auszudenken und dann ein Video produzieren zu lassen, das es zeigt. Die Möglichkeiten des Einsatzes dieser Technologie in kreativen und anderen Szenarien liegen auf der Hand.

OpenAI schlug jedoch vor, dass es auch in einer Vielzahl weniger offensichtlicher Szenarien eingesetzt werden könnte.

Sora ist in der Lage, ein vorhandenes Bild aufzunehmen und daraus beispielsweise ein Video zu machen, indem es „den Bildinhalt mit Genauigkeit und Liebe zum Detail animiert“. Damit könnten bestehende Standbilder zum Leben erweckt werden.

Es kann auch „ein vorhandenes Video aufnehmen und es erweitern oder fehlende Frames ergänzen“, sagte OpenAI. Dies kann bei der Wiederherstellung von Videos hilfreich sein, bei denen einige Teile des Filmmaterials verloren gegangen sind.

Siehe auch  7 ChatGPT-Anleitungen für mehr Zufriedenheit im Job

Sora dient auch „als Grundlage für Modelle, die die reale Welt verstehen und simulieren können, eine Fähigkeit, die unserer Meinung nach ein wichtiger Meilenstein für die Erreichung von AGI sein wird“, sagte OpenAI. Wenn die Welt ein KI-System ähnlich der menschlichen Intelligenz – künstliche allgemeine Intelligenz oder AGI – erzeugen soll, muss sie in der Lage sein, visuelle Bilder zu verstehen und sie zu erstellen.

Warum sind die Leute darüber besorgt?

Sobald das neue System angekündigt wurde, löste es Befürchtungen hinsichtlich der möglichen Gefahren aus. Wie bei jeder neuen KI-Technologie reichten sie von Bedenken, dass Unternehmen damit versuchen würden, Arbeitsplätze zu automatisieren und die Qualität ihrer kreativen Arbeit zu mindern, bis hin zu Fehlinformationen.

Sogar OpenAI äußerte sich sehr deutlich zu den Bedenken – obwohl dem Unternehmen manchmal vorgeworfen wurde, diese Ängste zu nutzen, um seine neuen Technologien zu vermarkten, indem es behauptete, sie seien so mächtig, dass sie gefährlich seien. In seiner Ankündigung hieß es, dass das Produkt noch nicht der Öffentlichkeit zugänglich gemacht, sondern stattdessen Forschern und anderen zugänglich gemacht werde, um die damit verbundenen Risiken zu verstehen.

Nach der Ankündigung von Sora lag der Fokus vor allem auf der Fähigkeit, Falschinformationen zu verbreiten, etwa durch die Erstellung von Videos berühmter Personen in fiktiven Situationen.

OpenAI sagte, dass man versuchen werde, auf diese Bedenken zu reagieren, bevor es öffentlich veröffentlicht wird. Dazu gehören „Red Teamer“, die versuchen werden, das Modell zu brechen, indem sie ihr Fachwissen in „Fehlinformationen, hasserfüllten Inhalten und Voreingenommenheit“ nutzen.

Es hieß auch, dass man daran arbeiten werde, Tools zu entwickeln, die es schwieriger machen würden, problematische Videos zu erstellen, indem man ein System einbaue, das Aufforderungen ablehnt, die gegen seine Richtlinien verstoßen, wie zum Beispiel solche, die „extreme Gewalt, sexuelle Inhalte, hasserfüllte Bilder, Ähnlichkeit mit Prominenten usw.“ anfordern das geistige Eigentum anderer“. Und es hieß, es werde an einem Tool arbeiten, das von Sora gepostete Videos erkennen könne, um die Verbreitung von Fehlinformationen zu stoppen.

Siehe auch  Benutzerdefinierte ChatGPT-Anweisungen zur Verbesserung der Leistung werden albern

Andererseits haben andere angedeutet, dass das Modell möglicherweise nicht ganz so einfallsreich ist, wie es scheint. Technologiekommentator Brian Merchant wies darauf hin, dass eines der von OpenAI zur Ankündigung des neuen Tools geteilten Videos offenbar einem deutlich ähnelte, das möglicherweise zum Trainieren des Tools verwendet wurde.

Andere von Herrn Altman geteilte Videos schienen jedoch neuartiger zu sein, da sie auf Aufforderungen beruhten, die ihm auf Twitter geschickt wurden, und die vermutlich weniger wahrscheinlich bestehende Clips widerspiegeln würden.

OpenAI stellte außerdem fest, dass das aktuelle Modell „Schwächen“ aufweist. „Es kann schwierig sein, die Physik einer komplexen Szene genau zu simulieren, und es kann sein, dass bestimmte Fälle von Ursache und Wirkung nicht verstanden werden. Beispielsweise könnte eine Person in einen Keks beißen, der Keks hinterher aber möglicherweise keine Bissspur mehr aufweisen.“

Es könnte auch zu Verwirrungen über den Raum kommen, „Links und Rechts verwechseln“ und „könnte Probleme mit der genauen Beschreibung von Ereignissen haben, die im Laufe der Zeit stattfinden“, sagte OpenAI.

Sogar in einigen der von OpenAI geteilten Videos – die vermutlich ausgewählt wurden, um das System im besten Licht zu demonstrieren – gab es Fehler. In manchen Videos tauchten beispielsweise Gliedmaßen von Menschen auf und verschwanden.

5/5 - (424 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein