Neue Technologien erfordern veränderte Storage-Planung und -Verwaltung

Paradigmenwechsel in der Storage-Welt

30. Mai 2008, 9:21 Uhr |

Immer häufiger beeinflussen Techniken aus der Consumer-Electronik die professionelle Landschaft. Ganz besonders deutlich wird dies bei Flash Memory, das auf dem besten Wege ist, die gesamte Speicherwelt aus den Angeln zu heben. Aber auch andere Techniken und Services krempeln derzeit die Storage-Strukturen gehörig um.

Jahrzehntelang waren die Fortschritte bei Data-Storage ähnlich langweilig wie Moores Law bei den
Prozessoren: In schöner Regelmäßigkeit gab es mehr Leistung fürs gleiche Geld, was bei den
Magnetplatten auf mehr Bits pro Fläche zurückzuführen war.

Doch seit einigen Monaten ist Bewegung in die gesamte Storage-Landschaft gekommen. Im
Wesentlichen sind es drei Techniken, die den Speichermarkt revolutionieren werden: Flash-Speicher,
Datendeduplikation und Storage- as a Service.

Mehr zum Thema:


http://llschnuerer.cmpdm.de//sites/cz/article.html?thes=&art=/articles/2008022/31529789_ha_CZ.html">Flashes erobern
die klassische Speicherwelt


http://llschnuerer.cmpdm.de//sites/cz/article.html?thes=&art=/articles/2008023/31533660_ha_CZ.html">Intel will Solid
State Disk mit Centrino bundeln – Samsung prescht mit 256 Gigabyte vor


http://llschnuerer.cmpdm.de//sites/cz/article.html?thes=&art=/articles/2007041/31248760_ha_CZ.html">Flash und SSD
bringen den Markt für Speicherplatten in Bewegung

Der Einsatz von NAND-Flash-Memory begann vor vielen Jahren als Storage-Medium für Handys und
Kameras, doch inzwischen sind Packungsdichte und Zuverlässigkeit so hoch, dass diese
Halbleiterspeicher erfolgreich Einzug in die professionellen Laptops und die Storage-Arrays
gehalten haben: Storage-Primus EMC hat im Januar eine Flash-Erweiterung für die Symmetrix-Arrays
bekanntgegeben, Netapp arbeitet an einer vollständig neuen Flash-basierten Storage-Architektur, und
auch andere Storage-Anbieter wollen ihre Tier-1-Speichereinheiten recht bald mit Solid State Drives
(SSD) aufrüsten.

EMC-Chef Joe Tucci meint sogar, dass schon in zwei Jahren die Preise von Flash-Memory mit den
heutigen Tier-1-Laufwerken vergleichbar sind, und dass sich damit die gesamte Storage-Hierarchie
verschieben wird. Analysten bestätigen diesen Trend: "Flash bewirkt einen Paradigmenwechsel, in dem
diese Laufwerke die Tier-1-Ebene übernehmen werden. Hard Drives ersetzen dann endgültig die Tapes,
deren Ende nicht mehr aufzuhalten ist", meint Pund-IT-Analyst Charles King.

Doch mit dem Vordringen von Flash im Unternehmens-Storage-Bereiche ergeben sich vielfältige
Softwarekonsequenzen, denn alle heutigen Backup-Programme sowie die Laufzeitoptimierungen von
Betriebssystemen und Applikationen gehen davon aus, dass als Massenspeicher eine Magnetplatte
eingesetzt wird, die relativ langsam ist und eine begrenzte Lebensdauer hat. Flash Drives mit
RAID-Level 1 bedeuten aber praktisch keine Performance-Einschränkung und auch keine Datenverluste
mehr. Folglich muss kein systembedingter Backup mehr durchgeführt werden, sondern nur noch die
Archivierung und Protokollierung, die den Compliance- und Accounting-Vorgaben entspricht.

Doch leider ist mit dem Einsatz von Flash eine anderes bevorstehendes Problem noch nicht gelöst:
die Explosion der Zahl zu speichernder Daten. IDC schätzt, dass bis 2011 die gesamte digital
gespeicherte Datenmenge auf 1773 Millionen TByte ansteigen wird, von denen 70 Prozent im
Consumer-Markt entstehen, doch 85 Prozent davon werden professionell gespeichert und verwaltet
werden müssen.

Gegen diese Datenflut soll die Deduplikation helfen, bei der nach unterschiedlichen Algorithmen
nur Teile der Originaldaten abgespeichert werden. Daraus soll sich dann später die
Originalversionen wieder reproduzieren lassen. Am besten lässt sich Deduplikation mit der JPEG-
oder ZIP-Kompression vergleichen. Wobei es auch andere Verfahren gibt, bei denen nur die
abgeänderten Teile einer Datei abgespeichert oder identische Dateien nur einmal abgelegt werden und
dann bei weiteren Kopien nur ein Verweis auf die Originaldatei gesetzt wird.

Das Problem der Deduplikation ist jedoch, dass sie im Gegensatz zu JPEG kein Standard ist.
Folglich können deduplizierte Daten auch nur von den Produkten des Hersteller wieder rekonstruiert
werden, mit denen sie komprimiert wurden, was vor allem bei der Langzeitarchivierung ein besonders
Problem darstellt.

Dritter Einflussfaktor auf die neue Storage-W elt ist Storage as a Service, so wie es
beispielsweise von Mozy angeboten wird. Gerade für kleine und mittlere Unternehmen ist die interne
Datensicherung kaum noch wirtschaftlich. Inzwischen stehen einer kontinuierlichen Sicherung übers
Internet bei einem Service-Provider meistens nur noch Vorurteile gegenüber.

Vorurteil eins: Der erste Upload von etlichen GByte dauert viel zu lange. Tatsächlich bieten die
Provider einen Offline-Setup an, das heißt, man bekommt ein oder mehrere externe Laufwerke
zugeschickt, auf die man alles kopiert. Diese Laufwerke schickt man dann zum Einlesen an den
Provider.

Vorurteil zwei: Die Daten könnten vom Provider oder gar von der Konkurrenz gelesen und
missbraucht werden. Heute bieten fast alle Storage-as-a-Service-Provider eine
128-Bit-Verschlüsselung an, die die Daten codiert, bevor sie hochgeladen werden. Die
Schlüsselverwaltung obliegt dem User, sodass auch der Provider die Daten nicht entziffern kann.

Vorurteil 3: Zu teuer. Mozys Business-Paket zum Beispiel beginnt jedoch bereits bei 3,95 Dollar
pro Monat.

Bei so vielen Vorzügen wird Storage as a Service inzwischen als eine Art Vorstufe zum
Cloud-Computing angesehen. "Wer seine eigene gut funktionierende Hard- und Software hat, wird
vorerst nicht auf Software as a Service umsteigen, doch Speichern ‚in the Cloud‘ ist für viele KMUs
sinnvoll, da das Datenvolumen rasant wächst und der Betrieb und das Managen der Storage-Einheiten
ihnen nur Probleme verursacht", meint Rob Enderle, Chef von Enderle Research.

Harald Weiss/wg


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+