Noch vor nicht allzu langer Zeit waren die Randbedingungen für Applikationsentwickler und IT-Architekten in Bezug auf den Speicherzugriff (I/O) klar definiert. Neben der CPU waren es vor allem Hauptspeicher, Cache und Festplatten, die eine relativ übersichtliche Struktur aus bekannten Variablen ergaben. Die Festplatte als klassisches Speichermedium persistent und robust, die Daten im Memory flüchtig, schnell und von der Kapazität her begrenzt. Auf den Vorgaben dieser klassischen Hierarchie beruht dann mit Ausnahme von In-Memory-Apps auch das gängige Anwendungsdesign: Latenzen aufgrund der I/O-Performance-Lücke müssen systemseitig je nach Anwendung intelligent behandelt werden.
Zwischenzeitlich sind jedoch massive Fortschritte im Bereich der Halbleiterspeicher-Entwicklung zu verzeichnen und latenzarme Medien sind nicht mehr das Thema. Die daraus resultierende Konvergenz von Memory und Storage – der Speicher rückt näher an die CPU – führt derzeit zu hochgradig virtualisierten Server-SANs und neuen I/O-Architekturen. Dies geht einher mit einer steigenden Menge an zu verarbeitenden Daten und neuen Anwendungen mit Echtzeit-Anforderungen. Eine der Kernfragen für Entwickler lautet damit: Wie können Applikationen damit sinnvoll umgehen und am besten davon profitieren?
Ein zentraler Begriff für die nächsten Jahre dürfte in diesem Umfeld Storage Class Memory, SCM, sein: Er umfasst ein breites Entwicklungsspektrum innerhalb der Halbleiterspeicher-Industrie inklusive ganz neuer Technologien (post-CMOS), angefangen von nicht-flüchtigen DRAMs auf Basis von NAND-Flash über 3D XPoint (Micron, Intel) bis hin zu Entwicklungstrends wie Memristor (HP), Enterprise PCM (Phase Change Memory), RRAM, STT-RAM, FeRAM, MRAM und in weiterer Zukunft Nano-Tubes oder Atomic-scale-Memory (IBM).
Das Ziel aller Entwicklungen ist jedoch, die Geschwindigkeit von DRAM
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.