Der lokale Plattenplatz der beiden Clusterknoten erscheint meist als ein großes Laufwerk im System. Mit Partitionen lässt er sich in kleinere Teile splitten, anschließend dienen die einzelnen Partitionen DRBD-Ressourcen auf beiden Knoten als Backing Device. Die Konfiguration der Ressource enthält die üblichen Einträge, ein funktionierendes Beispiel findet sich im Listing 1. Wenn die DRBD-Konfiguration auf beiden Servern passt, folgt das Anlegen des DRBD-Laufwerks. Das geschieht mit »drbdadm create-md iscsivg01
«
auf beiden Clusterknoten. Es folgt der Start der Ressource, ebenfalls auf beiden Knoten: »drbdadm up iscsivg01
«
. Auf einem der beiden wird die Ressource danach zum ersten Mal primär: »drbdadm -- --force primary iscsivg01
«
. Sie ist damit einsatzbereit.
Listing 1
/etc/drbd.d/iscsivg01.res für DRBD 8.4
Auf dem Knoten, auf dem die DRBD-Ressource primär ist, lässt sich nun die LVM-Infrastruktur anlegen: Mittels »pvcreate /dev/drbd/by-res/iscsivg01/0
«
wird aus der DRBD-Ressource ein Physical Volume. »vgcreate iscsivg01 /dev/drbd/by-res/iscsivg01/0
«
schafft eine Volume Group namens »iscsivg01
«
und macht die DRBD-Ressource zum Teil davon. Nun fehlen noch die Logical Volumes, die später mittels iSCSI exportiert werden. »lvcreate -L512M -n lun1 iscsivg01
«
legt ein 512 Megabyte großes Logical Volume namens »lun1
«
an. Analog kommt noch eine zweite LV gleicher Größe hinzu, die »lun2
«
heißt.
In Sachen Storage ist das Haus bestellt, die nächste Hürde ist es, iSCSI mittels IET zum Laufen zu bringen.