Software Defined Data Center

© mariok, 123RF

Bauen oder mieten?

Software Defined Data Center und Software Defined Networking als Voraussetzung dafür – es gibt derzeit kaum andere Schlagworte, die Netzwerkarchitekten mehr elektrisieren. Doch wann ist der richtige Zeitpunkt, sich diesem Trend anzuschließen? Was steckt dahinter? Eine Bestandsaufnahme.
Mit Hardware-Beschleunigung und schnellem Netz hilft Desktop-Virtualisierung, Administrationsaufwand und Kosten sparen, ADMIN 04/2013 verrät, wie die ... (mehr)

Die Idee ist bestechend: Ein vollständig virtualisiertes Netzwerk bietet eine ungekannte Flexibilität und Skalierbarkeit der gesamten IT-Infrastruktur. Jederzeit stehen binnen weniger Minuten genau so viele Ressourcen zur Verfügung, wie gerade benötigt werden. Probleme mit Lastspitzen gehören der Vergangenheit an; genauso wie teure Hardware-Ressourcen, die nur zum Teil ausgelastet sind. Jede zen-trale Komponente des Netzwerks – Server, Speicher, Switches, Router und Security – steht zu jedem Zeitpunkt genau in der Menge und Weise zur Verfügung, wie sie gebraucht wird. Und wird das Ganze in der Cloud abgebildet, dann kostet sie auch Minute für Minute nur genau so viel, wie gerade verbraucht wird.

Zwischenschicht einziehen

Um diese hehre Idee in die Tat umzusetzen, bedarf es der vollständigen Abstraktion der Steuerung und Automatisierung des Netzwerks von der – nach wie vor nötigen – Hardware. Im klassischen OSI-Modell ist nicht definiert, wo hier der Eingriff erfolgen kann. Je tiefer man aber ansetzt, desto besser: Dann gibt es die wenigsten Schnittstellenprobleme.

Daher benutzen die vielversprechendsten Ansätze die Schicht, in der die grundlegenden Verteilungsoperationen im Netzwerk passieren: die die Grenze zwischen Layer 2 und Layer 3 bildet. Hier, auf der Ebene der Switches, wird die Hardwaresteuerung durch eine zwischengelagerte Automatisierungs- und Steuerungssoftware abgelöst und damit die in diesen Komponenten normalerweise fest miteinander verbundene Control Plane von der Data Plane getrennt. Den darüberliegenden Schichten wird auf diese Weise eine komplette Hardware-Struktur vorgegaukelt, die real nur auf der Software-Ebene existiert.

Das ist eine Fortführung dessen, was bei Servern oder Storage unter dem Stichwort Virtualisierung bereits seit rund 50 Jahren existiert und sich in den letzten fünf Jahren etwa bei Servern durch den intensiven Einsatz von Hypervisors wie VMware vSphere, Windows Hyper-V, Citrix Xen und zuletzt zunehmend KVM im Rechenzentrum durchgesetzt hat. Weil aber bisher nur einige Komponenten eines Netzwerks, eben Server und Storage, virtualisiert wurden, lässt sich die volle Flexibilität und Skalierbarkeit eines vollständig virtuellen Rechenzentrums bisher noch nicht realisieren.

Konkurrenzgerangel

Die Aktivitäten von Hardware-Herstellern zielen im Moment aber gerade darauf, das komplette Rechenzentrum zu virtualisieren. Dabei wird klar: Klassische Hardware-Anbieter stehen in Konkurrenz mit Herstellern von Netzwerkkomponenten um die Deutungshoheit in diesem Markt. Und auch die Meinungsführer der Virtualisierungstechnologie wollen ein Wörtchen mitreden. Erkennbar wird ein Verdrängungswettbewerb: Man gründet und verlässt Industriekonsortien, die sich gegenseitig Konkurrenz machen.

An einer aus Anwendersicht sinnvollen Standardisierung von Schnittstellen und Protokollen wird zwar gearbeitet – aber wann ist damit zu rechnen, solange die einzelnen Hersteller ihre jeweils eigenen Vorstellungen durchsetzen wollen? Ein Beispiel: Erst schmiedeten EMC, VMware und Cisco eine Allianz, um mit dem Joint Venture VCE sogenannte Vblocks, also Racks aus aufeinander abgestimmten Servern, Netzwerkelementen, Speichern und einem Virtualisierungs-Layer auf den Markt zu bringen. Dann übernahm die EMC-Tochter VMware den Software-Defined-Networking-Spezialisten Nicira und trat damit in Konkurrenz zu VCE.

comments powered by Disqus

Artikel der Woche

Support-Ende von SMBv1

Mit dem aktuellen Update für Windows 10 und Windows Server 2016 steht eine Änderung ins Haus, die gerade für Benutzer älterer Linux-Distributionen große Auswirkungen hat. Nachdem Microsoft es über viele Jahre schon angekündigt hat, entfernt der Konzern mit dem aktuellen Update-Release den Support für das SMB-Protokoll 1. (mehr)
Einmal pro Woche aktuelle News, kostenlose Artikel und nützliche ADMIN-Tipps.
Ich habe die Datenschutzerklärung gelesen und bin einverstanden.

Linux-Backup

Welche Backup-Lösung setzen Sie für Linux im professionellen Umfeld ein?

  • keine
  • eigene Scripts
  • rsnapshot
  • rdiff-backup
  • Bacula
  • Bareos
  • Borg
  • Duplicity
  • Amanda
  • Burp
  • Clonezilla
  • Acronis
  • Arkeia
  • SEP sesam
  • Veeam
  • Redo Backup
  • Relax-and-Recover
  • andere kommerzielle Software
  • andere Open-Source-Software

Google+

Ausgabe /2017

Microsite