Die wachsende Kapazität von Speichermedien macht Datenverluste potenziell gefährlicher als noch vor wenigen Jahren. Die zunehmende Verbreitung von Flash als Speichertechnologie – in Geräten vom Smartphone bis zur Storage-Einheit der Enterprise-Klasse – erfordert neue Herangehensweisen an die Datenrettung und eine sorgfältige Risikoabwägung auf Seiten der Unternehmen. Und schließlich bringt die Etablierung von Virtualisierung und Cloud-Storage als Standard viele Vorteile, wiegt viele Unternehmen aber in trügerischer Sicherheit.
Mehr Kapazität auf gleichem Raum: Diese Marschrichtung gilt in der Entwicklung der Festplatten-Technologie seit ihrer Entwicklung vor fast schon 60 Jahren – und auch weiterhin. Aktuell drückt sich das in beeindruckenden Zahlen aus: Platten mit noch vor kurzem unvorstellbaren 3 bis 4 TByte Kapazität gehören zum Standard, die 6 TByte-Platte ist bereits auf dem Markt und die Steigerung auf 10 TByte wird in absehbarer Zeit erwartet.
Für die Rettung von Daten bringt die enorme Kapazität aktueller Festplatten zwei Herausforderungen mit sich: Zum einen bedeutet eine höhere Festplattenkapazität gleichzeitig auch eine höhere – und inzwischen schon fast kritisch hohe – Schreibdichte. Im Fall eines physikalischen Fehlers auf einem Teil der Platte – durch Überspannung, Erschütterungen oder Schäden an der Elektronik – bedeutet das automatisch, dass wesentlich mehr Daten betroffen sind. Damit steigt auch die Wahrscheinlichkeit, dass genau die Daten, die für ein Unternehmen wichtig sind, eventuell gar nicht mehr wiederhergestellt werden können.
Zum anderen ist die höhere Kapazität aktueller Festplatten nicht gleichzusetzen mit einer höheren Datenrate. Im Gegenteil: die Datenrate hinkt der Kapazität deutlich hinterher, was die Laufzeiten spürbar verlängert. Für die Datenrettung bedeutet dies eine
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.