Allen Unkenrufen zum Trotz ist die E-Mail nach wie vor das Kommunikationsmedium Nummer eins im Unternehmen. Deshalb geben wir in der Februar-Ausgabe eine ... (mehr)

DRBD bringt mehr IOPS

Linbit hat offenkundig viel Zeit und Energie in DRBD 9 gesteckt, obwohl sich Lösungen wie Ceph & Co. am Markt bereits etabliert haben. Viele Entwickler und Beobachter innerhalb der FL/OSS-Szene haben bereits den Abgesang auf DRBD angestimmt, weil die alten DRBD-Versionen verteilten Storage-Systemen nichts entgegenzusetzen haben und neue DRBD-Versionen offensichtlich noch nicht für den produktiven Einsatz bereit sind. Ganz so leicht ist die Sache allerdings nicht. Denn DRBD kombiniert zwei Faktoren miteinander, die für spezifische Use Cases sehr praktisch sind und bei Ceph & Co. momentan praktisch keinerlei Widerhall finden: Storage, das hohen, sequenziellen I/O-Durchsatz benötigt.

Performance lässt sich im Storage-Kontext mit zwei Faktoren charakterisieren: Latenz und Durchsatz. Letzteres beschreibt, wieviele Pakete innerhalb eines definierten Zeitraums maximal durch eine Verbindung fließen können. Demgegenüber besagt der Latenz-Wert, wie lange ein einzelnes Paket benötigt, um von der Quelle zu seinem Ziel zu gelangen. Beide Faktoren sind wichtig. Ceph und praktisch alle anderen verteilten Netzwerkspeicher erreichen außerordentlich hohe Werte im Hinblick auf Durchsatz, indem sie anstehende Schreib- und Leseoperationen parallelisieren. Nützlich ist das nur für Anwendungen, die ebenfalls in der Lage sind, ihre eigenen Requests entsprechend gleichzeitig abzuarbeiten.

Link-Codes

[1] RAIN statt RAID, IT-Administrator 11/2014: http://www.admin-magazin.de/Das-Heft/2014/11/Systeme-RAIN-statt-RAID/

[2] Update für die Installation unter Server 2008 R2: https://github.com/madkiss/puppet-drbdmanage/

Doch innerhalb der Riege der Programme, die genau das nicht können, gibt es einige prominente Beispiele. MySQL ist so eines: Eine MySQL-Datenbank arbeitet ihre Operationen üblicherweise sequenziell ab, sodass sich aus Parallelisierung im Grunde kein Vorteil ergibt. Hier spielt die Latenz eine viel wichtigere Rolle, und genau da kommen Ceph & Co. ins Straucheln: Ethernet, das bei praktisch allen gängigen Speichern zum Einsatz kommt, hat eine inhärente Latenz, die im Grunde gesetzt ist. So ergeben sich im Hinblick auf die IO-Operationen pro Sekunde massive Unterschiede zwischen MySQL auf Ceph und herkömmlichen Setups: Während ein MySQL, das auf einer Fusion-IO-Karte läuft, 50.000 IOPS und mehr liefert, ist bei MySQL auf Ceph selbst mit aufwändigem Tuning bei ein paar Tausend IOPS Schluss.

DRBD setzt hier an: Weil es einen asynchronen Replikationsmodus beherrscht – das Protokoll A – und gleichzeitig auf lokalen Speicher zugreift, kann es für viele Einsatzzwecke Replikation bieten, ohne auf hohe sequenzielle IOPS-Werte zu verzichten. Wenn es Linbit gelingt, einen Fuß in diese Türe zu kriegen, hat DRBD 9 durchaus Chancen. Hilfreich wäre beispielsweise auch die Integration in Open­Stack, um die beschriebenen Hoch-IOPS-Systeme innerhalb von Clouds zu betreiben. Dass Linbit die Zeichen der Zeit nicht verschläft, lässt sich daran erkennen, dass an einem Treiber für Cinder, der Block-Storage-Komponente von OpenStack, bereits gearbeitet wird.

(of)

comments powered by Disqus
Mehr zum Thema

DRBD-Replikation

Hochverfügbarkeit ist in modernen IT-Setups ein Muss. Ein kritischer Faktor ist dabei das redundante Speichern von Daten. Um dieses Problem kümmert sich LINBITs freies DRBD, das zum vollständigen Ersatz für ein SAN werden kann. Dieser Beitrag beschreibt die brandneue Version 8.4.
Einmal pro Woche aktuelle News, kostenlose Artikel und nützliche ADMIN-Tipps.
Ich habe die Datenschutzerklärung gelesen und bin einverstanden.

Konfigurationsmanagement

Ich konfiguriere meine Server

  • von Hand
  • mit eigenen Skripts
  • mit Puppet
  • mit Ansible
  • mit Saltstack
  • mit Chef
  • mit CFengine
  • mit dem Nix-System
  • mit Containern
  • mit anderer Konfigurationsmanagement-Software

Ausgabe /2023