Business Intelligence (BI)-Anwendungen sind dafür verantwortlich, Datenmengen zu analysieren, auszuwerten und darzustellen. Die Anforderungen an solche Anwendungen wurden im Laufe der Zeit immer vielfältiger und komplexer. So ist es beispielsweise notwendig, Daten in Echtzeit betrachten und auswerten zu können, anstatt auf Daten aus der Vergangenheit zurückzugreifen. Diese sind in vielen Szenarien heute bereits veraltet und stellen keinen Wert mehr dar. Hinzu kommt, dass Benutzer von BI-Anwendungen unterschiedliche Anforderungen haben und somit teilweise komplett unterschiedliche Reports auf Basis der vorhandenen Daten erstellen müssen. Die Daten selbst verteilen sich dabei natürlich über mehrere Quellen, wobei jede dieser Quellen ein Art Silo für sich darstellt. Anwendungen müssen also in der Lage sein, mehrere dieser Quellen abzufragen und dies dann natürlich auch noch über verschiedene Schnittstellen. Liegen Mitarbeiterdaten vielleicht in einer SQL-Datenbank vor, so sind die Expense-Reports der Mitarbeiter eventuell in Excel-Dateien hinterlegt. Um nun einen Expense-Report der Mitarbeiter zu verarbeiten und das Ergebnis in einer Datenbank abzulegen, sind also unterschiedliche Datenquellen anzusprechen. Dies kann je nach gewünschtem Report einen hohen Grad an manueller Arbeit bedeuten.
In der Vergangenheit wurden solche Probleme gerne durch den sogenannten ETL-Prozess gelöst. Hierbei wurden die relevanten Daten aus unterschiedlichen Quellen extrahiert (Extraktion), angepasst und bereinigt (Transformation), bevor diese dann in eine Zieldatenbank importiert (Laden) werden. Der Prozess ist jedoch recht aufwändig, da Daten jeweils repliziert werden müssen und gerade der Vorgang der Transformation fehleranfällig ist. Änderungen an den Datenmodellen in den Quellsystemen können dazu führen, dass umfangreiche Anpassungen an der Transformation
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.