Hochverfügbarkeit (HA) ist keine Erfindung des Cloudzeitalters. Viele der grundlegenden Konzepte sind heute immer noch anwendbar – wenn auch in angepasster Version. Neue Technologien und Ansätze haben die Möglichkeiten für HA erweitert. Ein äußerst wichtiger Grundsatz ist die Wahl der richtigen Perspektive: Auf welcher Ebene ist Hochverfügbarkeit tatsächlich nötig?
Grob lässt sich der Technologie-Stack in Software, Plattform und Infrastruktur unterteilen. Der überwiegende Teil der Online-Angebote und -Dienstleistungen ist in der Software- beziehungsweise der Anwendungsebene angesiedelt und genau hier ist die Hochverfügbarkeit gefordert. Die Schichten Plattform und Infrastruktur spielen zwar auch eine Rolle, agieren aber hinter den Kulissen. Hier haben sich viele der Vorgänge im Hintergrund nicht geändert: Immer noch bilden redundante Hardware, gespiegelte Daten und multiple Instanzen wie Farm oder Cluster das HA-Rückgrat. Mit Caches und Sitzungsverwaltung auf Client- und/oder Serverseite sind sogar Umschaltungen im großen Maßstab möglich.
Ein kleiner Paradigmenwechsel ist dennoch beachtenswert: Die Verschiebung von monolithischen Anwendungen hin zu Microservices. Eigentlich handelt es sich nur um eine Unterteilung der Software-Ebenen in verschiedene und fast unabhängige Komponenten. So lassen sich singuläre Funktionen verändern, ohne die gesamte Anwendung auszutauschen. Hinzu kommt, dass die Problemanalyse inklusive Fehlerbehebung einfacher sein kann. Beides kann sich im Idealfall komplett auf diesen einen Microservice fokussieren, der nicht so funktioniert, wie er soll.
Eines aber hat sich nicht verändert: Wer Hochverfügbarkeit erzielen will, muss trotz neuer Technologien den entsprechenden Dienst mit seinen Komponenten, die Abhängigkeiten und den jeweils zugehörigen Technologie-Stack genau kennen und überwachen.
Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.