Know-how: Virtuelle Workloads im Storage ausführen

Stille Reserve

Die Schnelllebigkeit der IT macht es Unternehmen schwer, den Kauf von Hard- und Software auf Jahre sicher zu planen. Storage, der im vergangenen Jahr aufgesetzt wurde, ist zwölf Monate später schon wieder zu klein und lässt sich nur teuer erweitern. Auch die Virtualisierungsnodes haben die Grenze ihres verfügbaren Arbeitsspeichers oder der CPU erreicht und laufen am Limit. Doch besitzen Storage-Systeme immer größere CPUs, reizen diese aber nur zu einem geringen Prozentsatz aus. Wie sich diese Rechenkapazitäten dank openATTIC, Ceph und OpenStack nutzen lassen, zeigt dieser Beitrag.
Das Thema 'Servervirtualisierung & Cloud' steht auf der Agenda des IT-Administrator im Mai. So lesen Sie unter anderem, wie einfach sich OpenStack mit Mirantis ... (mehr)

Lassen sich bestehende Speicherressourcen besser auslasten, können Administratoren teure Hardwareanschaffungen länger hinauszögern. Die Idee dabei ist, dem Storage zusätzlich zu der sowieso enthaltenen starken CPU ein wenig mehr Arbeitsspeicher zu geben, um diesen zusätzlich als Compute Node nutzen zu können. Durch eine solche Konvergenz der Systeme könnten in einem einzigen Arbeitsgang Energie- und Anschaffungskosten drastisch reduziert werden. Wie so etwas dann live aussehen kann, schauen wir uns mit Hilfe der Projekte openATTIC (Storage), Ceph (Object Store) und Open-Stack (Cloud-Framework) an.

Wie Bild 1 zeigt, ist mit normalen Storage-Herstellern an ein solches modulares Setup nicht zu denken. Die in sich geschlossenen und nach außen oft abgekapselten Systeme lassen keine Änderung oder Erweiterung zu. Viele Systeme enthalten zwar mittlerweile eine zentralisierte API und SDS (Software-defined Storage)-Funktionalität, damit lassen sich aber trotzdem keine funktionellen Erweiterungen oder separate Software ausbringen. Solch ein System ist weiterhin nur für das Storage zuständig.

...

Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.

Ähnliche Artikel

comments powered by Disqus

Artikel der Woche

Systeme mit Vamigru verwalten

Auch wer nur kleine Flotten von Linux-Servern verwaltet, freut sich über Werkzeuge, die ihm diese Arbeit erleichtern. Vamigru tritt mit diesem Versprechen an. Wir verraten, was es leistet und wie Sie es in der eigenen Umgebung in Betrieb nehmen. (mehr)
Einmal pro Woche aktuelle News, kostenlose Artikel und nützliche ADMIN-Tipps.
Ich habe die Datenschutzerklärung gelesen und bin einverstanden.

Container

Wie setzen Sie Container ein?

  • Gar nicht
  • Docker standalone
  • Docker mit Kubernetes
  • Docker mit Swarm
  • Docker mit anderem Management
  • LXC/LXD
  • Rocket
  • CRI-O auf Kubernetes
  • Container auf vSphere
  • Andere (siehe Kommentare auf der Ergebnisseite)

Google+

Ausgabe /2018

Microsite