Hochverfügbarkeit im Data Warehouse

Ausfallsicher stapeln

Big Data, Small Data, Sensor- oder Log-Daten, strukturiert oder unstrukturiert – deutsche Unternehmen nutzen mittlerweile ihre Informationen. In modernen Data-Warehouse-Architekturen liegen die Daten im Idealfall zentral, sicher, indexiert und bereits vorsortiert für weiterführende Analysen vor. Themen wie Hochverfügbarkeit und fehlertolerante IT-Architekturen werden dabei auch im Data Warehouse immer wichtiger.
Container sind derzeit in aller Munde, allen voran Docker. In der September-Ausgabe beleuchtet IT-Administrator, was die Technologie für Admins im Unternehmen ... (mehr)

Die Ansicht, dass Daten nicht unbedingt hochverfügbar sein müssen, da ja Unternehmen ohne sie beziehungsweise ohne Auswertungen und Analysen weiter funktionieren können, gilt heute nur noch sehr eingeschränkt. Denn mittlerweile sind Informationen sowie Datenanalysen teilweise selbst zu wertschöpfenden Prozessen in Unternehmen geworden. Vortages- oder Tagesauswertungen gehören zu wichtigen Entscheidungshilfen für das Management und die einzelnen Abteilungen. Daten etwa zum Kundenverhalten sind heute wesentlich für aktuelle sowie künftige Entwicklungen und Trends – Stichwort Predictive Analytics.

Anforderungen an Hochverfügbarkeit definieren

Welche Methode beziehungsweise Hochverfügbarkeitsstrategie sich für ein Data Warehouse (DWH) am besten eignet, ist von Fall zu Fall am besten zusammen mit DWH-Experten zu prüfen: Wie lange darf mein DWH im Jahr höchstens ausfallen? Müssen die Daten 24 Stunden am Tag, sieben Tage die Woche vorliegen? Damit hängt meist auch die Frage zusammen, wie viel das Thema Hochverfügbarkeit überhaupt kosten darf.

Sehr häufig wird ein Data Warehouse nur tagesaktuell genutzt. Aber selbst wenn bei einem Ausfall die Berechnungen und Auswertungen über Nacht nicht stattfinden können, weil kein paralleler beziehungsweise gespiegelter DWH-Aufbau vorliegt, lassen sich die Informationen aus den operationalen Daten wiedergewinnen. Eine Herausforderung ist jedoch, dass einige Firmen ihre Daten direkt im Data Warehouse archivieren und so nicht mehr alles aus dem operativen System rekonstruieren können. Hier ist es deshalb entscheidend, dass die Informationen etwa auf einem parallel betriebenen DWH oder in der Cloud gesichert sind.

Wege zur Hochverfügbarkeit

Um Daten hochverfügbar zu machen, existieren mehrere Methoden, die jeweils von der im Vorfeld ermittelten höchstmöglichen

...

Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.

Ähnliche Artikel

comments powered by Disqus

Artikel der Woche

Support-Ende von SMBv1

Mit dem aktuellen Update für Windows 10 und Windows Server 2016 steht eine Änderung ins Haus, die gerade für Benutzer älterer Linux-Distributionen große Auswirkungen hat. Nachdem Microsoft es über viele Jahre schon angekündigt hat, entfernt der Konzern mit dem aktuellen Update-Release den Support für das SMB-Protokoll 1. (mehr)
Einmal pro Woche aktuelle News, kostenlose Artikel und nützliche ADMIN-Tipps.
Ich habe die Datenschutzerklärung gelesen und bin einverstanden.

Linux-Backup

Welche Backup-Lösung setzen Sie für Linux im professionellen Umfeld ein?

  • keine
  • eigene Scripts
  • rsnapshot
  • rdiff-backup
  • Bacula
  • Bareos
  • Borg
  • Duplicity
  • Amanda
  • Burp
  • Clonezilla
  • Acronis
  • Arkeia
  • SEP sesam
  • Veeam
  • Redo Backup
  • Relax-and-Recover
  • andere kommerzielle Software
  • andere Open-Source-Software

Google+

Ausgabe /2018

Microsite