Unternehmensweit eingesetzte, universelle Datenspeichersysteme sind für die hochverfügbare Speicherung und Archivierung großer Informationsmengen geschaffen. Die damit verbundenen Funktionen zum Storage-Management sind im Gegensatz zu kleineren lokalen Speicherlösungen darauf ausgelegt, Workloads zu verwalten – I/O-Profile von vielen unterschiedlichen Benutzern hauptsächlich über File- und Blockzugriffe. Sie werden als virtualisierte, zentralisierte Infrastrukturen wie NAS und SAN-Arrays, aber auch als direkt angeschlossener Speicher (DAS) für spezifische Anwendungs-Workloads mit einer direkten LUN-zu-App-Beziehung implementiert.
In diesem Zusammenhang beginnt sich auch Computational Storage stärker zu entwickeln. Dieser Begriff definiert Architekturen, die mit dem Speicher gekoppelte, rechnergestützte Storage-Funktionen bereitstellen, um die Server-Verarbeitung zu entlasten und/oder Datenbewegung über Netzwerke zu minimieren. Ein Teil der Datenverarbeitung erfolgt nun direkt auf der Speicherebene, anstatt die Daten in den Hauptspeicher zur Verarbeitung durch die Host-CPU zu verschieben.
Dieser Ansatz ermöglicht Verbesserungen bei der Anwendungsleistung mittels Integration von Rechenressourcen außerhalb der traditionellen Rechen- und Speicherarchitektur entweder direkt mit dem Speicher oder zwischen dem Host und dem Speicher. Computational Storage ist für Hochleistungs-Workloads von modernen Datenbanken und Big Data Analytics ideal. Typischerweise verfügen diese Systeme aufgrund des Einsatzzwecks über eine für die Systemumgebung optimierte Speicher- und Dateisystemverwaltung, während sich eine kommerziell breit verfügbare Enterprise-Speicherverwaltungsplattform auch rein als Software zusammen mit JBODs implementieren lässt.
Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.