NAS-Speicher mit einer Kapazität von einigen Dutzend Terabyte, wie sie sich für mittelständische Anwender eignen, nimmt die ADMIN-Redaktion in der Ausgabe ... (mehr)

Das Dateisystem per Ceph mounten

Weiter geht es damit, das frisch angelegte Dateisystem auf einem anderen Host an einem der RADOS-Knoten zu mounten. Das geht wie gewohnt mit » mount« – als Zielhost dient jeweils einer der MON-Server, im Beispiel also »alice« , deren MON-Adresse in »ceph.conf« auf »10.42.0.101:6789« festgelegt ist. Weil die Cephx-Autentifizierung zum Einsatz kommt, gilt es vorher, die von Ceph automatisch generierten Login-Credentials für den Mount herauszufinden. Dazu dient der folgende Befehl auf einem der RADOS-Knoten: »ceph-authtool -l /etc/ceph/admin.keyring« gibt die Credentials aus. Dann folgt der eigentliche Mountvorgang: »mount -t ceph 10.0.0.1:6789:/ /mnt/osd -vv -o name=admin,secret= Schlüssel « , wobei »Schlüssel« durch den Wert von »key« zu ersetzen ist, den das vorangegangene Kommando ergeben hat. Der Mountpoint im Beispiel ist »/mnt/osd« , das im Anschluss als ganz normales Verzeichnis benutzt werden kann.

Die Crush Map

RADOS und Ceph benutzen im Hintergrund einige Magie, die das Setup gegen Ausfälle aller Art absichern soll. Das fängt schon beim Mount an: Jeder der vorhandenen MON-Server kann als Mountpoint Verwendung finden, allerdings bedeutet das nicht, dass die Kommunikation anschließend stets nur zwischen dem Client und diesem spezifischen MON stattfindet. Stattdessen erhält Ceph auf dem Client vom kontaktierten MON-Server die MON- und die OSDmap und rechnet sich anschließend selbst aus, welchen OSD er für eine bestimmte Datei am besten verwendet, und wickelt mit eben diesem OSD die Kommunikation direkt ab.

Ein weiterer Schritt zur Erhöhung der Redundanz ist die Crush Map. In ihr ist festgelegt, welche Hosts zu einem RADOS-Cluster gehören, wie viele OSDs dort vorhanden sind und wie Daten auf diese Hosts sinnvollerweise aufzuteilen sind. Über die Crush Map wird RADOS Rack-Aware und Admins haben die Möglichkeit, die interne Replikation von RADOS im Hinblick auf einzelne Server, Racks oder Sicherheitszonen im Rechenzentrum zu manipulieren. Auch das im Beispiel angelegte Setup hat eine rudimentäre Default Crush Map. Die Beschreibung aller Crush-Map-Optionen wird im zweiten Teil dieses Artikels im nächsten Heft ausführlich erklärt; dabei wird es auch darum gehen, innerhalb des RADOS-Stores verschiedene Pools einzurichten, also den großen Brocken Speicherplatz in mehrere kleine Teile aufzusplitten. Wer sich bis dahin mit der Crush Map genauer befassen möchte, findet im Ceph-Wiki unter [2] die wichtigsten Informationen für den Einstieg.

comments powered by Disqus
Einmal pro Woche aktuelle News, kostenlose Artikel und nützliche ADMIN-Tipps.
Ich habe die Datenschutzerklärung gelesen und bin einverstanden.

Konfigurationsmanagement

Ich konfiguriere meine Server

  • von Hand
  • mit eigenen Skripts
  • mit Puppet
  • mit Ansible
  • mit Saltstack
  • mit Chef
  • mit CFengine
  • mit dem Nix-System
  • mit Containern
  • mit anderer Konfigurationsmanagement-Software

Ausgabe /2023