Workshop: OpenStack mit Fuel installieren

Im Nullkommanichts zur Cloud

OpenStack ist komplex und anspruchsvoll. Fuel von Mirantis hilft Admins dabei, die erste Installation erfolgreich zu meistern – und liefert dabei deutlich nicht nur die Pflicht, sondern auch eine tolle Kür.
Das Thema 'Servervirtualisierung & Cloud' steht auf der Agenda des IT-Administrator im Mai. So lesen Sie unter anderem, wie einfach sich OpenStack mit Mirantis ... (mehr)

Selbst passionierte Systemadministratoren reagieren regelmäßig geschockt, wenn sie sich zum ersten Mal im Detail mit OpenStack beschäftigen. Tatsächlich gehört die Cloud-Lösung mit zum Komplexesten, was die IT-Landschaft in den letzten fünf Jahren hervorgebracht hat. Bei OpenStack kommen viele Faktoren zusammen: Einerseits besteht die Software aus vielen kleinen Komponenten, jede davon mit zwei Namen – einem Codenamen und dem offiziellen Namen. Eben diese Komponenten müssen wie ein Orchester perfekt harmonieren, damit am Ende eine funktionierende OpenStack-Wolke steht. Das setzt die Installation in einer bestimmten Reihenfolge voraus – und die Abstimmung aufeinander.

Keystone ist ein gutes Beispiel: Wenn die OpenStack-Benutzerverwaltung nicht funktioniert, braucht ein Admin sich mit der Fehlersuche bei anderen Komponenten erst gar nicht zu beschäftigen. Abgerundet wird das Chaos durch die Tatsache, dass es im Python-Dschungel von Open­Stack kaum Fehlermeldungen gibt, die dem Admin die Chance böten, ein Problem zu verstehen. Oft genug scrollt nur ein Python-Stacktrace durchs Logfile und zwingt den Admin dazu, sich mit den Interna der einzelnen Komponenten zu beschäftigen – und Google zu wälzen.

Trotz aller Widrigkeiten wollen oder müssen sich Admins immer häufiger mit OpenStack beschäftigen und die Software wenigstens einmal evaluieren. In der OpenStack-Community war gerade dieses Thema lange ein heißes Eisen: Wie lassen sich Admins langsam an OpenStack heranführen, ohne vor lauter Frust aufzugeben? Mehrere Firmen haben sich eine Lösung des Problems vorgenommen. Suse und Red Hat etwa liefern ihre Open­Stack-Produkte mit dem "Rundum-Sorglos-Paket" aus, das die Installation von OpenStack nebst Begleitsoftware wie Puppet oder Chef abwickelt.

Andere Admins haben Anleitungen veröffentlicht, wie sich OpenStack "zu Fuß" sinnvoll installieren und verwalten lässt. Den meistversprechenden Ansatz liefert allerdings das amerikanische Unternehmen Mirantis: Seine Software Fuel zaubert in Windeseile eine OpenStack-Installation auf physische Rechner und liefert dem Admin sogar eine hübsche GUI, die die Installation obendrein nachvollziehbar macht. Dieser Artikel zeigt am konkreten Beispiel, wie aus drei Servern dank Fuel eine Mini-Cloud wird, die alle grundlegenden OpenStack-Funktionen bietet. Wie so oft gilt dabei allerdings: Vorbereitung ist alles.

Passendes Test-Setup wählen

Fuel versteht sich selbst als umfassendes Werkzeug, das nicht nur Software verwaltet, sondern auch die Hardware, auf der es läuft. Für Admins ist das praktisch: Wenn der Fuel-Master-Server erst einmal läuft, hostet er nämlich einen DHCP-Server samt PXE-Unterstützung. Alle anderen Server der zukünftigen Wolke lassen sich dann direkt aus Fuel heraus installieren und mit einer Aufgabe versehen. Der Admin kommt also gar nicht mehr in die Situation, irgendwo ein Betriebssystem zu installieren oder die grundlegende Software eines Servers zu bearbeiten. All das erledigt Fuel für ihn.

Damit das funktioniert, ist das erste Element einer Fuel-basierten Cloud jener Master-Server. Mirantis bietet in seiner Anleitung dazu diverse Wege. Auch eine Variante basierend auf VirtualBox erwähnt die Dokumentation [1]. Einerseits ist das toll, denn die meisten Desktop-Computer haben mittlerweile genug Dampf unter der Haube, um mehrere VirtualBox-VMs gleichzeitig zu betreiben. Fuel und OpenStack lassen sich so erstmal aus der Nähe betrachten, bevor auf echter Hardware der nächste Schritt folgt.

Andererseits ist eine OpenStack-Wolke, die aus mehreren VirtualBox-VMs auf dem gleichen Host besteht, freilich kein aussagekräftiges Test-Szenario. Zur Evaluation von OpenStack eignet sich solch ein Setup nicht. Admins sei deshalb geraten, für die ersten OpenStack-Gehversuche lieber vier oder fünf ausrangierte Server zu verwenden. Solange die Maschinen Hardware-Support für Virtualisierung mitbringen, erfüllen sie ihren Zweck. Wer OpenStack ernsthaft evaluieren will und brauchbare Aussagen hinsichtlich der erreichbaren Performance und Funktion braucht, muss ohnehin auf entsprechender Hardware testen und messen.

 Hardware-Voraussetzungen

Für OpenStack-Clouds gibt es im Netz mittlerweile diverse Empfehlungen über die zu nutzende Hardware. Die meisten Empfehlungen sind für den Test unerheblich. Wichtig ist lediglich, dass die untere Grenze drei Knoten sind. Ein Fuel-Setup wie hier dargestellt besteht aus einem Fuel-Master, einem Controller-Knoten und einem Hypervisor-Knoten.

Relevant ist auch das Netzwerk. Open­Stack-Clouds produzieren einiges an Traffic, und ein einzelnes Netzwerkinterface genügt dafür in der Regel nicht. Im Rahmen der Fuel-Installation werden Admins den "Controller"-Knoten aufsetzen, der mindestens drei separate Netzwerkports haben sollte: einen für den "eigenen" Traffic im Admin-Netz, einen für den Traffic, der von VMs kommt, und einen für ausgehenden VM-Traffic in Richtung Internet. Die Hypervisor-Knoten brauchen mindestens zwei Netzwerkports, nämlich einen für die Kommunikation des Admin-Netzes und einen für den Traffic der VMs. Der Fuel-Server benötigt eine Netzwerkkarte in einem ungetaggten VLAN oder außerhalb existierender VLANs.

Ähnliche Artikel

comments powered by Disqus

Artikel der Woche

Loadtests ohne Server

Für Loadtests der eigenen Server bietet sich die Cloud an, denn kurz getaktet lassen sich dort viele Rechnerinstanzen starten, die das eigene Budget nur wenig belasten. Noch flexibler, günstiger und besser skalierbar sind Tests mit einer Serverless-Infrastruktur wie AWS Lambda. Wir führen vor, wie Sie dort mit Serverless Artillery eigene Loadtests starten. (mehr)
Einmal pro Woche aktuelle News, kostenlose Artikel und nützliche ADMIN-Tipps.
Ich habe die Datenschutzerklärung gelesen und bin einverstanden.

Container

Wie setzen Sie Container ein?

  • Gar nicht
  • Docker standalone
  • Docker mit Kubernetes
  • Docker mit Swarm
  • Docker mit anderem Management
  • LXC/LXD
  • Rocket
  • CRI-O auf Kubernetes
  • Container auf vSphere
  • Andere (siehe Kommentare auf der Ergebnisseite)

Google+

Ausgabe /2018

Microsite