Eine Version dieses Artikels wurde im TIME-Newsletter Into the Metaverse veröffentlicht. Abonnieren Sie einen wöchentlichen Leitfaden zur Zukunft des Internets. Vergangene Ausgaben des Newsletters finden Sie hier.

Wenn Sie die gesehen haben Coachella YouTube-Livestream Am Samstagabend haben Sie vielleicht eine doppelte Aufnahme gemacht, als riesige Laubbäume und Ein Papagei in Godzilla-Größe erhob sich langsam über die Bühne des Elektronikkünstlers Flume. Waren es riesige Hüpfburgen? Luftspiegelungen auf einem 200 Fuß hohen LED-Bildschirm? Reine Halluzinationen des Geistes?

Nichts des oben Genannten. In diesem Jahr hat sich Coachella mit Unreal Engine zusammengetan, dem 3D-Softwareentwicklungstool von Epic Games, über das ich vor zwei Wochen in diesem Newsletter geschrieben habe, um den ersten Livestream zu erstellen, der AR-Technologie (Augmented Reality) in eine Aufführung eines Musikfestivals integriert . Unreal Engine arbeitete mit Flumes künstlerischem Team und anderen technischen Mitarbeitern zusammen, um gewaltige psychedelische 3D-Bilder zu erstellen, die sich nahtlos in sein Bühnenbild und Bühnenbild einfügten und um den Künstler herum und in den Indio-Himmel schwebten.

Aber niemand auf dem Festival konnte diese riesigen Papageien sehen – nur die Zuschauer zu Hause. Das Ergebnis, das nur wenige Minuten dauert, dient als Vorlage dafür, wie Live-Veranstaltungsplaner zukünftig die Metaverse-Technologie einsetzen könnten, um einzigartige Erlebnisse für Zuschauer zu Hause zu schaffen. Viele Metaverse-Ersteller glauben, dass Live-Events zunehmend hybrid mit digitalen und realen Komponenten sein werden – und dass immersive Tools dazu beitragen könnten, jede Version des Events für sich unverwechselbar und begehrenswert zu machen. „Es macht keinen Sinn, das Live-Musikerlebnis einfach virtuell nachzubilden“, sagt Sam Schoonover, Innovationsleiter bei Coachella. „Stattdessen sollte man den Fans etwas Neues und Anderes bieten, das sie im wirklichen Leben nicht machen können.“

In den letzten Jahren haben AR-Visuals ihren Weg in Live-Übertragungen gefunden, wenn auch meist als kleine Gimmicks. Riot Games brachte einen riesigen Drachen ins Spiel Eröffnungszeremonie des Finales der League of Legends Worlds 2017; Eine Kamera folgte dem kreischenden Tier, als es um die Fans im Stadion flog. Im vergangenen September sprang ein riesiger Panther auf ähnliche Weise über das Stadion der Carolina Panthers. (Der Panther war auch erstellt mit Unreal Engine.)

Schoonover versucht seit Jahren, ähnliche Effekte für den Livestream von Coachella zu nutzen, um sein Publikum über die Grenzen des Empire Polo Club hinaus zu erweitern. „Das Online-Publikum für Shows wächst exponentiell bis zu dem Punkt, an dem vielleicht 10- oder 20-mal mehr Leute die Show über einen Livestream verfolgen als auf dem Festival“, sagt Schoonover. „Da das Erlebnis zu Hause nie mit dem Erlebnis auf dem Festival vergleichbar ist, möchten wir Künstlern neue Möglichkeiten bieten, sich auszudrücken und die Zuschauerzahlen auf der ganzen Welt zu steigern.“

Frühere Bemühungen um AR-Experimente bei Coachella wurden jedoch durch die Produktionskosten und das mangelnde Interesse der Darsteller behindert. In diesem Jahr brauchte es eine Partnerschaft mit Epic – das sich darauf konzentriert, die Eintrittsbarrieren für 3D-Entwickler zu senken – und das Buy-in von Flume – einem Elektronikmusiker, der bei seinen Konzerten seit langem Wert auf visuelle Handwerkskunst legt –, um das Projekt zu verwirklichen . Zu den wichtigsten Akteuren in diesem Prozess gehörte der Künstler Jonathan Zawada, der intensiv an audiovisuellen Projekten mit Flume gearbeitet hat, darunter am NFTsund der Regisseur Michael Hili, der bei Flume’s äußerst abgefahrenem neuen Film Regie führte Musikvideo „Sag nichts“.

Siehe auch  Metaverse KÜSSEN jetzt möglich mit Technologie, die „Empfindungen an Mund, Lippen und ZUNGE sendet“

Das Ergebnis war die Erschaffung riesiger australischer Vögel (Flume ist australisch), farbenfroher Blumen und belaubter Bäume, die sich im Wind wiegen, über der Bühne und der wimmelnden Menge. Drei Broadcast-Kameras, die mit zusätzlichem Hardware-Tracking ausgestattet waren, ermöglichten es dem Produktionsteam, diese 3D-Grafiken in Echtzeit in den Video-Feed einzufügen.

Die Grafiken sind nur der Anfang dessen, was in AR für Live-Konzerteinstellungen erstellt werden könnte, sagt Schoonover. Zukünftige Performer könnten zum Beispiel ständig Lichteffekte um ihre Gesichter herum haben oder ihre Tanzbewegungen mit denen der umgebenden Avatare synchronisieren. Man kann sich leicht vorstellen, dass Produktionsdesigner in Echtzeit die Art von Effekten hinzufügen, die der allgegenwärtige Musikvideoregisseur Cole Bennett verwendet ergänzt seine Videos in der Postproduktion oder eine Snoop Dogg-Aufführung, in der er ist flankiert von seinen Charakteren aus dem Sandbox-Metaverse.

Und Schoonover sagt, dass diese AR-Erfahrungen eine weitere Stufe erreichen werden, wenn AR-Brillen normalisiert werden. Schließlich können Sie das Konzert vielleicht in 3D vom Festivalgelände aus sehen, umgeben von schwebenden AR-Vögeln, Pflanzen und allem, was sich 3D-Künstler sonst noch ausdenken. „Wenn es um Leute geht, die das Coachella-Erlebnis von ihrem Sofa aus erleben möchten, ist dies der Einstiegspunkt“, sagt er.

Abonnieren Sie Into the Metaverse für einen wöchentlichen Leitfaden zur Zukunft des Internets.

Treten Sie TIMEPieces bei Twitter und Zwietracht

Weitere Must-Read-Geschichten von TIME


Kontaktiere uns unter [email protected].

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein