Workshop: Daten-Virtualisierung mit JBoss Data Virtualization

Die große Vereinheitlichung

In heutigen IT-Landschaften kommen zunehmend agile Methoden zum Einsatz, insbesondere für die Bereitstellung von großen Datenmengen. Der klassische Zugriff auf Datenquellen gehört der Vergangenheit an. Mit der JBoss Data Virtualization-Software erhalten Anwendungen eine einheitliche Schnittstelle auf beliebige Daten – unabhängig davon, aus welcher Quelle diese stammen. Unser Workshop zeigt die Vorteile der zugrundeliegenden Methoden, erklärt die Installation von JBoss Data Virtualization und schließt mit einem ersten Datenintegrationsprojekt ab.
Die Datenmenge in Unternehmen wächst unaufhaltsam und auch deren notwendige Verfügbarkeit steht längst außer Frage. Deshalb befasst sich IT-Administrator im ... (mehr)

Business Intelligence (BI)-Anwendungen sind dafür verantwortlich, Datenmengen zu analysieren, auszuwerten und darzustellen. Die Anforderungen an solche Anwendungen wurden im Laufe der Zeit immer vielfältiger und komplexer. So ist es beispielsweise notwendig, Daten in Echtzeit betrachten und auswerten zu können, anstatt auf Daten aus der Vergangenheit zurückzugreifen. Diese sind in vielen Szenarien heute bereits veraltet und stellen keinen Wert mehr dar. Hinzu kommt, dass Benutzer von BI-Anwendungen unterschiedliche Anforderungen haben und somit teilweise komplett unterschiedliche Reports auf Basis der vorhandenen Daten erstellen müssen. Die Daten selbst verteilen sich dabei natürlich über mehrere Quellen, wobei jede dieser Quellen ein Art Silo für sich darstellt. Anwendungen müssen also in der Lage sein, mehrere dieser Quellen abzufragen und dies dann natürlich auch noch über verschiedene Schnittstellen. Liegen Mitarbeiterdaten vielleicht in einer SQL-Datenbank vor, so sind die Expense-Reports der Mitarbeiter eventuell in Excel-Dateien hinterlegt. Um nun einen Expense-Report der Mitarbeiter zu verarbeiten und das Ergebnis in einer Datenbank abzulegen, sind also unterschiedliche Datenquellen anzusprechen. Dies kann je nach gewünschtem Report einen hohen Grad an manueller Arbeit bedeuten.

Die Grenzen bewährter BI-Methoden

In der Vergangenheit wurden solche Probleme gerne durch den sogenannten ETL-Prozess gelöst. Hierbei wurden die relevanten Daten aus unterschiedlichen Quellen extrahiert (Extraktion), angepasst und bereinigt (Transformation), bevor diese dann in eine Zieldatenbank importiert (Laden) werden. Der Prozess ist jedoch recht aufwändig, da Daten jeweils repliziert werden müssen und gerade der Vorgang der Transformation fehleranfällig ist. Änderungen an den Datenmodellen in den Quellsystemen können dazu führen, dass umfangreiche Anpassungen an der Transformation

...

Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.

Ähnliche Artikel

comments powered by Disqus

Artikel der Woche

Systeme mit Vamigru verwalten

Auch wer nur kleine Flotten von Linux-Servern verwaltet, freut sich über Werkzeuge, die ihm diese Arbeit erleichtern. Vamigru tritt mit diesem Versprechen an. Wir verraten, was es leistet und wie Sie es in der eigenen Umgebung in Betrieb nehmen. (mehr)
Einmal pro Woche aktuelle News, kostenlose Artikel und nützliche ADMIN-Tipps.
Ich habe die Datenschutzerklärung gelesen und bin einverstanden.

Container

Wie setzen Sie Container ein?

  • Gar nicht
  • Docker standalone
  • Docker mit Kubernetes
  • Docker mit Swarm
  • Docker mit anderem Management
  • LXC/LXD
  • Rocket
  • CRI-O auf Kubernetes
  • Container auf vSphere
  • Andere (siehe Kommentare auf der Ergebnisseite)

Google+

Ausgabe /2018

Microsite