Schneider aus der Cloud

Videos, die als Stream angeboten werden, erfordern – abhängig von der Anzahl der Zuschauer – manchmal eine große Menge an Ressourcen. So ist es kein Wunder, dass mit der ständig wachsenden Popularität von Cloud-based Computing jemand auf die Idee kam, dass diese Technologie dazu beitragen kann, den Ressourcenbedarf zu weitaus günstigeren Kosten abdecken zu können als dies vor dem Cloud-Zeitalter möglich war.

Ein schöner Gedanke, denn auf diesem Wege könnten wir jederzeit unabhängig vom Ort, an dem wir uns befinden, und unabhängig von der Speicherkapazität des Abspielgerätes, Romy Schneider in ihren besten Rollen erleben.

Um diesen Zusammenhang zu erklären bedarf es zunächst eines grundlegenden Verständnisses des Cloud Computing. Das Prinzip hinter Romy Schneider in der Wolke ist, dass die von bestimmten Diensten verursachte Last nicht von einem Computer, sondern von einer Gruppe von Rechnern getragen wird. Viele gängige Anwendungen im SaaS (Software as a Service)-Bereich werden nach diesem Prinzip ausgeliefert, da es sonst nicht möglich wäre, Tausenden oder vielleicht sogar Millionen von Nutzern gleichzeitig die Nutzung der jeweiligen Dienst zuzusichern.

Ein einzelner Server wäre schlicht nicht in der Lage, dies zu bewerkstelligen, aus diesem Grund müssen die für die Auslieferung dieser Dienste erforderlichen Ressourcen von mehreren Rechnern zur Verfügung gestellt werden.

Auf Anwenderseite hat dies keine sichtbaren Auswirkungen, den Benutzern wird nach wie vor nur eine Schnittstelle oder ein Portal zur Verfügung gestellt. Hinter den Kulissen allerdings arbeiten Dutzende oder sogar Hunderte von Servern zusammen, um den Datenfluss zu strukturieren und nach außen in gleichbleibender Verfügbarkeit bereitzustellen.

Um das Beschriebene zu realisieren und Romy Schneider allgegenwärtig auf Bildschirmen rund um den Globus verfügbar machen zu können, bedarf es allerdings nicht zwangsläufig moderner Cloud Technologien – Auch ein konventioneller Rechnerverbund mit Load Balancing (eine sogenannte Server Farm) kann Lastspitzen ausgleichen und dynamisch die Ressourcen mehrerer, einzelner Server bündeln um ressourcenhungrige Dienste mit hoher Verfügbarkeit auszuliefern.

Der Nachteil dieser Setups ist zum Einen, dass die zur Bedienung von Lastspitzen benötigten Ressourcen auch bei niedriger Auslastung permanent in Betrieb sein müssen, um sofort auf eine erhöhte Nachfrage reagieren zu können. Ein weiterer Nachteil besteht in der Ortsgebundenheit des Servers, was gegebenenfalls lange Leitungen erzeugt und eine lokale Pufferung des Datenstroms erforderlich macht. Diese Art Service ist mit hohen Kosten verbunden, und genau hier liegt der Vorteil des Cloud Computings.

Cloud Computing lebt von Skaleneffekten und einer „Speicher-Globalisierung“. An der Spitze der Cloud stehen globale Medienkonzerne wie Google, Amazon, Apple, oder AOL Time Warner, die für ihre Dienste schon seit geraumer Zeit eigene Rechenzentren auf allen Kontinenten betreiben. Die Ressourcen an Rechenzeit, Arbeitsspeicher und Festplattenspeicher werden der Wolke zur Verfügung gestellt, was die Effizienz der Ressourcenauslastung und damit der Produktivität drastisch ansteigen lässt und der unvergessenen Romy Schneider in der Cloud einen neuen, deutlich günstigeren Lebensraum bietet.

Dank der globalen Vernetzung der Rechenzentrum verkürzt sich der Weg zu einem bestimmten Bildschirm, der Datenpuffer wird reduziert oder entfällt ganz.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.