KI kommt in Spiele, ob ob es dir gefällt oder nicht. Die Nvidia-Keynote gestern Abend hat gezeigt, wie mächtig – und verheerend – das sein wird. Der CEO des Unternehmens, Jensen Huang, zeigte, wie seine frisch angekündigte „Omniverse Avatar Cloud Engine“ (ACE) interaktive KI-NPCs in Echtzeit erstellen kann, komplett mit improvisierten Sprachdialogen und Gesichtsanimationen.

Während der Schwerpunkt des Vordringens der KI in Gaming-Bereichen bisher vielleicht vor allem auf den Auswirkungen für Künstler lag, sind es die Autoren, die ohnehin schon am meisten zu befürchten haben. Wenn man bedenkt, wie mittelmäßig die Standards für NPC-Dialoge und Questtexte in Spielen sind, ist es absolut unvermeidlich, dass der Großteil dieser Inhalte in naher Zukunft von KI geschrieben wird, trotz der potenziellen Wut und Proteste, die damit einhergehen werden. Aber Nvidias Enthüllung gestern Abend deutet darauf hin, dass die Konsequenzen weitaus weitreichender sein könnten und bald Synchronsprecher, Animatoren, Lichtteams usw. ersetzen könnten.

ACE ist Nvidias „Suite von Echtzeitlösungen” für In-Game-Avatare, bei der mithilfe von KI Charaktere erstellt werden, die auf einzigartige Spielerinteraktionen reagieren können, und zwar im Charakter, in der Stimme und mit passenden Gesichtsausdrücken und Lippensynchronisation. Um es in Aktion zu sehen (oder zumindest in angeblicher Aktion – wir haben keine Möglichkeit, es zu überprüfen Sehen Sie sich das Filmmaterial an, das das Unternehmen während der Keynote zur Computex 2023 abgespielt hat. ICHEs sollte bei 25 Minuten beginnen, der Clip bei 27:

NVIDIA Taiwan

Siehe auch  TMNT Shredder's Revenge ist ein verdammter Spaß für einen knopfdrückenden Idioten

Was Sie hier also sehen, ist ein In-Game-Charakter, der in Echtzeit auf die Worte des Spielers reagiert, und zwar ausschließlich auf die Art und Weise, wie er die Fragen formuliert, mit maßgeschneiderten Dialogen und Animationen. Der Charakter hat eine Hintergrundgeschichte und eine Mission, die er vermitteln muss, aber darüber hinaus ist der Rest „Improvisation“, basierend auf den Worten, die der Spieler zu ihm sagt.

Dies ist die offensichtlichste Verwendung von ChatGPT-ähnlicher KI, wie wir sie derzeit verstehen, bei der es sich im Wesentlichen um ein prädiktives Textmodell im großen Stil handelt. Es eignet sich ideal zum Erstellen von Charakteren, die auf der Grundlage von Eingaben einen zusammenhängenden, relevanten Gesprächsdialog führen können.

Nun gibt es zwei sehr offensichtliche Probleme, die man sofort erwähnen muss: Das erste ist, wie schrecklich und flach die Leistung der Figur in diesem Clip ist. Aber denken Sie daran, dass dies die erste Iteration dieser Technologie ist, und stellen Sie sie dann in den Kontext, in dem bis vor etwa zehn Minuten alle computergenerierten Stimmen wie Stephen Hawking klangen. Dies wird schnell voranschreiten, da KI-Modelle besser lernen, die feineren Nuancen der menschlichen Sprache zu simulieren.

Das zweite Problem ist, dass sich absolut niemand, der ein solches Spiel spielt, an das Drehbuch halten würde, wie es in diesem Clip der Fall ist. Tatsächlich wäre das erste, was fast jeder zu einem solchen NPC sagen würde, etwas übers Ficken. Als Referenz finden Sie alle Text-Adventure-Spieler aller Zeiten in den frühen 1980er Jahren. Das wird für die Spiele der schwierigere Aspekt sein, den es zu überwinden gilt.

Siehe auch  Das beliebte klassische Super Mario-Rollenspiel bekommt die Remake-Fans gesucht
Nvidias Ceo Jensen Huang

Bildschirmfoto: Nvidia / YouTube / Futuriq.de

Natürlich wird der Einsatz der Technologie angesichts der Anzahl der Arbeitsplätze, die ACE ersetzen möchte, als weitaus weniger wichtig angesehen. Huang erwähnt so lässig, dass die KI nicht nur die Worte und die Stimme liefert, sondern auch die Animation übernimmt. Und dies im Anschluss an seine frühere Erklärung, wie KI verwendet wird, um die Beleuchtung in der Szene zu erzeugen und tatsächlich die Rechenleistung der Grafiktechnologie zu verbessern, die alles erzeugt.

Es gibt keine Realität, in der nicht eine große Zahl von Leuten in der Spieleentwicklung ihren Job verlieren würde – wenn auch höchstwahrscheinlich diejenigen, die diesen Job noch nicht bekommen haben. Warum sollten Sie neue Animatoren für Ihr Projekt einstellen, wenn die KI dies für Sie erledigt, unterstützt durch das schwindende Team, das Sie bereits haben? Wer wird nach neuen Beleuchtungsexperten suchen, wenn in Ihrer Software ein Beleuchtungsexperte steckt? Ganz zu schweigen von den Autoren, die derzeit all die Dialoge generieren, an denen Sie derzeit vorbeigehen.

Und das ist kein futuristisches Zeug, mit dem wir uns irgendwann befassen müssen: Es existiert bereits und wird in den Spielen auftauchen, die dieses Jahr erscheinen. Mit der Ankündigung von ACE wird sich das alles viel schneller verschärfen, als vielleicht irgendjemand erwartet hat.

Für Spielestudios sind das großartige Neuigkeiten! Das Potenzial für eine solche Technologie ist unglaublich. Spiele, die derzeit nur von Hunderterteams erreicht werden können, werden realistischerweise von Zehnerteams oder sogar von Einzelpersonen erreicht. Wir als Spieler werden bald Spiele spielen, in denen wir echte Rollenspiele spielen und auf ähnliche Weise direkt mit Charakteren im Spiel sprechen können Douglas Adams hat davon geträumt und es vor vierzig Jahren nicht geschafft.

Siehe auch  Amazon verspricht, dass die God of War-Show den Spielen „treu“ sein wird

Aber wenn es um Fachberufe in der Branche geht, wird es ein Blutbad geben. Und das Wille passieren, so sicher wie Automatisierte Textilanlagen stellen alle unsere Kleidungsstücke her.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein