Entwicklung der Virtualisierung

Hardware wegzaubern

Virtualisierung ist aus der IT nicht mehr wegzudenken. Wir erklären, wie sich die Technologie entwickelt hat, welche Varianten es im Bereich Server und Speicher gibt und wie es in Zukunft weitergehen könnte. Dabei werfen wir auch einen Blick auf die Unterschiede zu Containern und befassen uns mit Software-defined Storage und hyperkonvergenten Systemen.
Virtualisierung ist aus der IT nicht mehr wegzudenken. In der November-Ausgabe des IT-Administrator dreht sich der Schwerpunkt um das Thema "Server- und ... (mehr)

Virtualisierung ist eigentlich ein alter Hut. Die Grundidee ist immer dieselbe: Die Hardware wird durch eine überlagernde Softwareschicht unsichtbar für die sie nutzenden Programme. Funktionen, die zuvor von den Systemen selbst erbracht wurden, laufen redundant. Physische Ressourcenzuweisungen werden durch logische ersetzt. Das Ergebnis: Die vorhandenen physischen Ressourcen lassen sich flexibel und ohne Hardware-Eingriffe je nach Bedarf verteilen und nutzen. Die Effizienz steigt, die Kosten für die Gerätebeschaffung sinken. Denn es kann Standardhardware zum Einsatz kommen, statt teure proprietäre Systeme zu kaufen.

Wer glaubt, erst mit den modernen Servern und VMware habe die Virtualisierung die IT erreicht, irrt gründlich. Vielmehr gab es dieses Konzept schon beim Mainframe: Mit LPAR (logischer Partitionierung) ließen sich dessen gesamte Ressourcen in mehrere logische Systeme aufteilen. IBM nutzt sein LPAR-System übrigens noch immer für seine Großrechnerarchitektur Z Systems. Im Grunde ist die IT daher mit einer Cloud wieder da angekommen, wo sie einst beim Main­frame angefangen hat. Wichtigster Unterschied: Heutige Standardhardware kommt von vielen Herstellern, skaliert schrittweise zu günstigen Kosten und nutzt gängige und oft offene Betriebssysteme, was mehr Flexibilität bei Hard- und Softwareauswahl bedeutet.

Die Anfänge der Servervirtualisierung

Sobald Mainframes durch kleinere, selbständige Systeme wie Workstations oder Intel-Server ergänzt oder ersetzt wurden und Client-Server-Infrastrukturen entstanden, stellte sich die Frage: Ist es effizient, einen Server lediglich für eine Anwendung einzusetzen? Dieses Konzept versprach zwar viel Komfort und die Möglichkeit, die Ressourcen speziell für diese Anwendung optimal zu dimensionieren, außerdem war die Sicherheit naturgemäß groß. Andererseits entstanden teure Serverzoos mit entsprechenden Verwaltungs- und

...

Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.

Ähnliche Artikel

comments powered by Disqus

Artikel der Woche

Eigene Registry für Docker-Images

Wer selber Docker-Images herstellt, braucht auch eine eigene Registry. Diese gibt es ebenfalls als Docker-Image, aber nur mit eingeschränkter Funktionalität. Mit einem Auth-Server wird daraus ein brauchbares Repository für Images. (mehr)
Einmal pro Woche aktuelle News, kostenlose Artikel und nützliche ADMIN-Tipps.
Ich habe die Datenschutzerklärung gelesen und bin einverstanden.

Konfigurationsmanagement

Ich konfiguriere meine Server

  • von Hand
  • mit eigenen Skripts
  • mit Puppet
  • mit Ansible
  • mit Saltstack
  • mit Chef
  • mit CFengine
  • mit dem Nix-System
  • mit Containern
  • mit anderer Konfigurationsmanagement-Software

Ausgabe /2020