Die Nachfrage nach Cloud-Streaming von Spielen und leistungsstarken Prozessoren wird immer beliebter, aber viele technische Herausforderungen bestehen noch. Warum ist das Konzept des Cloud Computing nicht neu, vor welchen Herausforderungen stehen neue Streaming-Dienste und wird Remote Computing jemals die Oberhand gewinnen?
Warum ist das Konzept des Cloud Computing nicht neu?
Obwohl das Konzept des Cloud Computing neu erscheinen mag, gehen seine Ursprünge tatsächlich auf einige der ersten Mainstream-Computer der 1960er und 1970er Jahre zurück. Bevor wir verstehen können, wie Remote Computing in dieser Zeit alltäglich wurde, müssen wir zunächst verstehen, warum Computer groß und teuer waren.
Damit ein Computer praktisch ist, muss er in der Lage sein, Berechnungen mit realen Daten durchzuführen, die in realen Anwendungen verwendet werden können. Zum Beispiel wurden die ersten Militärcomputer verwendet, um Artillerietabellen zu berechnen, die es Schiffen ermöglichten, Ziele genau zu treffen, während einige der ersten IBM-Maschinen verwendet wurden, um tabellarische Daten für die nationale Volkszählung in den USA zu zählen.
Unabhängig von der verwendeten Technologie finden Computer in der Regel praktische Anwendung in der realen Welt, wenn sie Datenbusse von mindestens 16 Bit, Speicher in Hunderten von MB und Befehlsgeschwindigkeiten in Millionen pro Sekunde haben. Nun, das bedeutet nicht, dass 8-Bit-Rechner nicht praktisch verwendet werden können, da 8-Bit-Rechner eine Zeit lang den Markt für Heimcomputer dominierten, aber während sie für Heimanwendungen nützlich sein können, können sie ganz sicher nicht für große Scale-Computing-Anwendungen wie wissenschaftliche Forschung und Transaktionsverarbeitung.
Daher mussten selbst die ersten Computer schnell skaliert werden, um praktikabel zu sein. Beispielsweise hatte das 1964 eingeführte IBM System 360 32-Bit-Wörter, einen 24-Bit-Adressraum und konnte bis zu 16,6 MIPS ausführen. Solche Computer würden aus diskreten Komponenten aufgebaut, wodurch ihre Größe schnell zunehmen würde. Daher ist es wirtschaftlich sinnvoll, einen großen Computer mit anständigen Fähigkeiten zu bauen, der für viele Zwecke verwendet werden kann, anstelle eines kleineren Systems mit reduzierten Fähigkeiten (da diese reduzierten Fähigkeiten für anspruchsvolle Aufgaben nicht ausreichen würden).
Die Entwicklung sehr großer Mainframe-Maschinen machte jedoch auch Sinn, als Ingenieure das Konzept von Remote Computing und Time-Sharing entwickelten. Es ist wesentlich billiger, einen großen Mainframe zu haben, der 100 Benutzer bedienen kann, die alle Terminalmaschinen (Bildschirm, Tastatur und eine einfache Schnittstelle) verwenden, als zu versuchen, allen 100 Benutzern ihre eigenen dedizierten Maschinen zu geben.
Diese Verwendung von Remote-Computing dauerte mehrere Jahrzehnte, wobei Unternehmen große Mainframes kauften, bei denen sich Mitarbeiter mit kleinen Desktop-Terminals anmeldeten. Als sich die Rechenleistung verbesserte, wurden diese Terminals nach und nach durch Desktop-Computer ersetzt, die ein gewisses Maß an lokaler Verarbeitung bereitstellen konnten, während der Mainframe den Benutzern bei Bedarf zusätzliche Verarbeitungsleistung zur Verfügung stellte. Einige Mainframes ermöglichten sogar den Fernzugriff über Telefonnetze mit der Verwendung eines Modems, was dazu führte, dass einige Unternehmen ihre freie Rechenleistung im Rahmen von Time-Sharing-Systemen an andere vermieteten.
Vor welchen Herausforderungen stehen neue Streaming-Dienste?
Viele Unternehmen haben in letzter Zeit Versuche unternommen, die Datenverarbeitung wieder in Mainframes und Rechenzentren zu bringen. Zum Beispiel stellt Amazon Web Services Online-Cloud-Computing-Dienste bereit, die einfach mit Anwendungen skalierbar sind, sodass einer Anwendung, die mehr Ressourcen benötigt, diese dynamisch zugewiesen werden können.
Ein weiteres Beispiel wäre Microsoft Azure, das im Wesentlichen die gleichen Dienste wie Amazon Web Services bereitstellt. Google bietet auch Cloud-basierte Softwarelösungen wie Google Docs und Google Sheets an, die kostenlose Browserversionen von Word und Excel sind.
Die Vorteile von Cloud Computing sind zahlreich, ob es unabhängig vom Standort zugänglich ist, die Fähigkeit, leistungsstarke Computer zu beseitigen, die Fähigkeit, auf mehreren Plattformen zu arbeiten, und die Sicherheit, die Rechenzentren bieten (ein unerwarteter Stromausfall wird keine Daten sehen Verlust seitens des Benutzers). Darüber hinaus überträgt Cloud Computing die Verantwortung für die Systempflege auf das Rechenzentrum, und die große Anzahl von Benutzern, die ihre Ressourcen bündeln, ermöglicht den Zugriff auf Hardware, die sonst zu teuer wäre (Server-CPUs, High-End-GPU usw. ).
Tatsächlich sind es sowohl Nvidia als auch Microsoft Erforschung der Idee von Streaming-Computing-Ressourcen. Zum Beispiel hat Nvidia einen Spiele-Streaming-Dienst namens GeForce Now, der es Abonnenten ermöglicht, Spiele auf von Nvidia gehosteten Servern aus der Ferne zu spielen. Microsoft soll auch einen eigenen Xbox Anywhere-Dienst entwickeln, der es Kunden überflüssig macht, Konsolen zu kaufen und stattdessen remote auf Xbox-Spiele auf Microsoft-Servern zuzugreifen.
Remote-Computing-Dienste, wie sie von Microsoft entwickelt und von Nvidia angeboten werden, stehen jedoch vor vielen Herausforderungen. Die mit Abstand größte Herausforderung ist die Qualität der Verbindung zwischen Benutzer und Server.
Bei nicht intensiven Anwendungen wie Textverarbeitung ist die Qualität einer Internetverbindung selten ein Problem, da die Datenmenge, die zwischen Client und Server ausgetauscht wird, minimal ist. Eine intensive Anwendung wie ein Spiel erfordert jedoch nicht nur ein qualitativ hochwertiges Videostreaming, sondern auch eine Eingangsreaktion mit geringer Latenz.
Wenn man bedenkt, dass der typische Spieler an einem guten Tag mit Pings zwischen 20 ms und 40 ms rechnen kann, wenn er Spielesoftware lokal ausführt, könnte sich dies erheblich verschlechtern, wenn er sich auf einen Remote-Server verlässt, um Videos und Tastenanschläge zu streamen. Außerdem verstärkt die größere Entfernung zwischen einem Spieler und dem Streaming-Server diesen Effekt, und dadurch leidet entweder die Latenz oder die Videoqualität.
Daher können nur diejenigen, die eine hervorragende Verbindung zwischen sich und dem Server haben, solche Streaming-Dienste nutzen. Selbst dann kann ein solcher Dienst nur eine bestimmte Anzahl von Benutzern gleichzeitig handhaben, und es ist sehr wahrscheinlich, dass Benutzer eines geografischen Standorts zur gleichen Zeit spielen (dh nach der Arbeit, nachmittags usw.). Dies könnte zu Spitzenzeiten zu Leistungseinbußen führen, die Videoqualität weiter verringern oder die Eingangslatenz erhöhen.
Wird Remote Computing jemals übernehmen?
Obwohl große Fortschritte auf dem Gebiet des Remote Computing gemacht wurden, ist es zweifelhaft, ob Remote Computing die Norm für intensive Anwendungen werden wird. Alltägliche Anwendungen wie die Textverarbeitung profitieren stark vom Cloud Computing, da auf Dokumente jederzeit und überall zugegriffen werden kann, aber diejenigen, die gerne spielen, investieren oft Energie und Zeit in ihr Spielgerät. Darüber hinaus wird es für Server schwierig sein, jedes existierende Spiel zu unterstützen, und dies könnte dazu führen, dass Remote-Gaming auf einige wenige beliebte Titel beschränkt wird, während andere kleinere Spiele weiterhin auf Mainstream-PCs gespielt werden.
Abonnementbasierte Dienste könnten Remote Computing jedoch beliebter machen, da Unternehmen versuchen, alternative Methoden zur Generierung von Einnahmen zu finden. Da die gesamte Hardware und Software auf Remote-Plattformen gehalten wird, müssen diejenigen, die Zugriff erhalten möchten, monatliche Gebühren zahlen, was Unternehmen eine gesunde Einnahmequelle bieten kann. Natürlich werden Abonnementmodelle allgemein gehasst, da sie als eine Möglichkeit angesehen werden, den vollständigen Besitz von Hardware und Software zu verhindern, und der Missbrauch eines solchen Einnahmemodells könnte dazu führen, dass Kunden sich aktiv weigern, Remote-Computing-Lösungen zu unterstützen.