Mit Hardware-Beschleunigung und schnellem Netz hilft Desktop-Virtualisierung, Administrationsaufwand und Kosten sparen, ADMIN 04/2013 verrät, wie die ... (mehr)

Alle Komponenten müssen virtualisiert sein

Zurück zur Technik und den bisherigen Einschränkungen hinsichtlich der Flexibilität der Ressourcen. Anwendungen können ganz unterschiedlich sein, was ihren Ressourcenverbrauch betrifft: manche sind besonders rechenintensiv, andere benötigen viel Arbeitsspeicher, wieder andere bewegen große Datenmengen auf den Storage-Systemen. Nimmt man den Gedanken des Cloud Computing ernst, dann müsste das Angebot des Cloud-Providers diese unterschiedlichen Ansprüche reflektieren. Das bedeutet, dass der Cloud-Provider nicht scheibchenweise virtualisierte physische Instanzen vermieten darf, sondern frei konfigurierbare virtuelle Systeme. Genau hier kommt Software Defined Networking ins Spiel: Nur wenn der Anbieter jede Komponente und auch die Kommunikation zwischen diesen Komponenten zu virtualisieren in der Lage ist, entsteht für jeden Anwender sein individuelles, virtuelles Rechenzentrum ( Abbildung 1 ). Da nun für Cloud-Provider dieselben Gesetze gelten wie für jeden anderen Netzwerkarchitekten, kann er bisher nicht auf standardkonforme Lösungen der Industrie setzen, sondern muss die Steuerungssoftware auf dem Layer 2 seines Netzwerks selbst schreiben.

Abbildung 1: Der Trend im Cloud Computing geht zu grafischen Benutzeroberflächen für virtuelle Rechenzentren: hier der ProfitBricks Data Center Designer (DCD).

Ethernet ist zu langsam

Für den Anwender ist das im Grunde nicht weiter relevant – er bezieht das virtuelle Rechenzentrum ja als Service. Tatsächlich relevant ist allerdings die Frage, wie der Service-Provider diese Steuerungsschicht gestaltet hat. Wenn nämlich der Anspruch besteht, eine atmende Cloud zur Verfügung zu stellen, dann muss insbesondere sichergestellt werden, dass die Infrastruktur oder Teile davon schnell automatisiert auf einen anderen physischen Server umgezogen werden können, um Engpässe zu vermeiden (oder auch für den Fall, dass man als Kunde mit dem Provider nicht mehr zufrieden ist und seine Anwendungen und Daten zurückholen will).

Ein limitierender Faktor hierfür ist die Datenübertragungsgeschwindigkeit im Netzwerk-Stack. Üblicherweise wird in realen wie virtuellen Netzwerken Ethernet verwendet. Bei den zu erwartenden hohen, permanenten, internen Datenströmen (Flows) ist das schnell zu wenig, selbst wenn garantiert werden kann, dass für jede virtuelle Instanz stets GBit-Ethernet zur Verfügung steht. Die Lösung: Als Anleihe aus dem High Performance Computing kommt hier die Hochgeschwindigkeitstechnologie InfiniBand zum Einsatz. Es bringt von Haus aus eine mindestens viermal so hohe Geschwindigkeit mit wie die derzeit maximale Ausbaustufe 10-GBit-Ethernet. Setzt man nun in jede Netzwerkkomponente zwei InfiniBand-Netzwerkkarten ein, erhöht sich die Übertragungsgeschwindigkeit auf 80 GBit pro Sekunde. Dadurch sinken die Latenzzeiten deutlich und das macht die vollständige Virtualisierung des Netzwerks erst möglich.

Diese ist auch eine Voraussetzung dafür, Ressourcen vertikal skalieren zu können. Bisherige Angebote skalieren, zum Teil sogar automatisiert, horizontal. Das bedeutet, dass im Bedarfsfall neue Instanzen hochgefahren und dem Netzwerk hinzugefügt werden. Dies ermöglicht an sich ein höheres Maß an Flexibilität als im Dedicated Hosting. Allerdings hat es den Nachteil, dass eine Unterbrechung in der Datenverarbeitung entsteht, weil die neue Instanz erst provisioniert werden muss. Darüber hinaus müssen die eingesetzten Anwendungen parallelisierbar sein, das heißt über mehrere physische Instanzen hin verteilt arbeiten können. Zudem steigt die Performance des gesamten Netzwerks nicht linear mit der Anzahl der Instanzen.

Eine elegantere Lösung ermöglicht es, granular innerhalb einer Instanz Cores, RAM und – über das virtuelle NAS – Storage im laufenden Betrieb hinzuzufügen. Diese Live Vertical Scaling genannte Technologie sorgt ohne Unterbrechung des Betriebs für mehr Rechenpower oder verhindert den Speicherüberlauf. Derzeit sind maximal 48 Cores pro virtueller Maschine und 256 GByte RAM realistisch, Tendenz steigend. Alle Komponenten solcher Instanzen lassen sich in Einserschritten hinzufügen. Noch nicht abschließend gelöst ist die Frage, wie sich ein solches hochskaliertes System ebenfalls im laufenden Betrieb, also ohne Neu-Provisionierung des Netzwerk, wieder verkleinern lässt. Das scheint aber nur noch eine Frage der Zeit zu sein.

comments powered by Disqus
Einmal pro Woche aktuelle News, kostenlose Artikel und nützliche ADMIN-Tipps.
Ich habe die Datenschutzerklärung gelesen und bin einverstanden.

Konfigurationsmanagement

Ich konfiguriere meine Server

  • von Hand
  • mit eigenen Skripts
  • mit Puppet
  • mit Ansible
  • mit Saltstack
  • mit Chef
  • mit CFengine
  • mit dem Nix-System
  • mit Containern
  • mit anderer Konfigurationsmanagement-Software

Ausgabe /2023