Das Dashboard gibt die zuzuweisende Floating-IP direkt an. Nova-Network kam damit zurecht, für Quantum muss anstelle der IP allerdings die entsprechende UUID der IP-Teil des Befehls sein. Ein zurückportierter Patch aus Grizzly [1] sorgt dafür, dass das Dashboard mit IPs umgehen kann, die in UUID-Form angegeben sind. Der Patch ist auf dem Dashboard-Host im Ordner
/usr/lib/python2.7/dist-packages/horizon/dashboards/nova/access_and_security/floating_ips
mittels
»patch -p1 < Patch
«
anzuwenden. Anschließend funktioniert das Zuweisen der Floating-IPs: Nach dem Mausklick des Nutzers im Dashboard gibt jenes den Befehl an Nova weiter, das ihn zu Quantum schickt. Quantum kümmert sich um den Rest, und die VM bekommt ihre Floating-IP.
Ein klassischer Anspruch an Cloud-Computing-Umgebungen ist der, dass sie nahtlos in die Breite skalieren sollen. Wenn die Plattform wächst, muss es möglich sein, zusätzliche Hardware hinzuzufügen und so die Kapazität der Installation zu vergrößern. Der Anspruch kolldiert allerdings mit klassischen Storage-Ansätzen, denn weder typische SAN-Storages noch passende Ersatzkonstruktionen mit NBD oder DRBD lassen sich in solchen Dimensionen erweitern wie Cephs.
Wirklich interessant ist ein Gespann aus einer Cloud-Plattform wie OpenStack und einer Object-Storage-Lösung. OpenStack selbst bringt eine solche in Form von OpenStack Swift sogar mit, doch leidet Swift unter der Tatsache, dass es nicht möglich ist, auf den Storage als Block-Device zuzugreifen. Hier kommt Ceph ins Spiel, denn Ceph ermöglicht Block-Zugriff. Die beiden Komponenten von OpenStack, die mit Storage zu tun haben – Glance und Cinder – bieten einen direkten Anschluss an Ceph. Wie funktioniert die praktische Umsetzung?