Trends im Storage-Markt

Von der Pflicht zur Kür

17. Dezember 2010, 6:00 Uhr | Christoph Lange

Kosten senkende Verfahren wie Thin Provisioning und Deduplizierung zählen mittlerweile bei vielen Speichersystemherstellern zum Standardfunktionsumfang, während bei den Architekturen Scale-up- und Scale-out-Ansätze um die Gunst der Kunden wetteifern. Neue Techniken wie FCoE (Fibre Channel over Ethernet) und Lossless Ethernet werden mit dem Einzug von 10 Gigabit Ethernet in die Rechenzentren eine immer wichtigere Rolle spielen. Weitere Trends sind HSM und Storage Tiering.

Bei der Einführung effizienter Techniken für das Speicher-Management haben Startup-Unternehmen
wie 3PAR oder Equallogic eine wichtige Rolle gespielt. Sie zählten zu den ersten Anbietern, die
Disk-Arrays mit Funktionen wie Thin Provisioning und Thin Reclamation auf den Markt gebracht haben.
3PAR wurde vor Kurzem von HP übernommen, Equallogic gehört bereits seit einiger Zeit zu Dell.
Inzwischen haben die meisten Hersteller derartige Funktionen in ihre Speichersysteme integriert und
passen sie für neue Anwendungen weiter an, zum Beispiel für eine effiziente Bereitstellung von
virtuellen Desktops per Thin Cloning.

Im Backup-Bereich hat sich die Deduplizierung auf breiter Front durchgesetzt. Mit dieser Technik
lassen sich die gesicherten Datenmengen stark reduzieren. Zu den Vorreitern zählten hier unter
anderem Startups wie Data Domain, inzwischen übernommen von EMC, aber auch etablierte Anbieter wie
Quantum. Der Einsatz von Deduplizierung für Produktivdaten ist noch nicht so stark verbreitet, wird
aber unter anderem von Netapp stark propagiert. Ein überzeugendes Argument für eine Deduplizierung
sind die damit möglichen Kosteneinsparungen bei den Speicherkapazitäten. Netapp führt die
Deduplizierung auf seinen Midrange- und Highend-Disk-Arrays in einem nachgelagerten Prozess durch,
der zum Beispiel in der Nacht oder am Wochenende stattfinden kann, um den Produktivbetrieb nicht zu
beeinträchtigen.

Wettstreit der Systemarchitekturen

Im Markt für Disk-Arrays haben in den vergangenen Jahren sowohl Startup-Unternehmen als auch
etablierte Hersteller neue technische Ansätze entwickelt. Ziel ihrer Bemühungen war es, durch eine
ausgefeilte Systemarchitektur eine hohe Leistungsfähigkeit zu erzielen sowie eine gute
Skalierbarkeit bei den Speicherkapazitäten und bei der Performance zu ermöglichen. Ein Ergebnis
sind Systeme, die für die Bereitstellung von LUNs alle im Disk-Array vorhandenen Festplatten
verwenden. Die von einer LUN genutzten Datenbereiche werden dabei in kleine Chunks aufgeteilt und
über alle Spindeln des Arrays verteilt. Damit steht für jede LUN eine sehr hohe I/O-Performance zur
Verfügung.

Zu den Anbietern derartiger Speichersysteme zählen zum Beispiel Pillar Data Systems und IBM, die
vor einiger Zeit das israelische Startup-Unternehmen XIV übernommen haben. Eine Besonderheit des
XIV-Systems ist, dass es kostengünstige SATA-Platten verwendet. Als Wegbereiter dieser
Systemarchitektur kann Compaq gelten. Die Enterprise Virtual Arrays, kurz EVA genannt, waren
bereits vor etwa zehn Jahren in der Lage, eine LUN über alle Festplatten des Systems zu
verteilen.

Eine Spezialform neuer Disk-Array-Architekturen sind so genannte MAID-Systeme (Massive Array of
Idle Disks), die unter anderem von Nexsan und SGI erhältlich sind. Sie können Festplatten in einen
Stromsparmodus versetzen oder ganz ausschalten, wenn sie vorübergehend nicht benötigt werden.
Derartige Lösungen kommen unter anderem für Backup-to-Disk zum Einsatz, um Strom- und
Kühlungskosten zu senken. Für einen schnellen Zugriff muss das MAID-System in der Lage sein, alle
Platten gleichzeitig online zu bringen. SGI bewältigt dies nach eigenen Angaben mit einem MAID aus
1.200 Festplatten, das rund 2,5 PByte Speicherkapazität bereitstellt.

Scale-up versus Scale-out

Im Highend-Bereich sind monolithische Speichersysteme wie IBM DS8000 oder EMC Symmetrix nach wie
vor stark verbreitet. Sie bestehen aus redundanten Storage-Controllern, die tausend oder mehr
Festplatten zentral verwalten können. Eine symmetrische Datenspiegelung auf ein an einem entfernten
Standort platziertes zweites System sorgt für eine hohe Datensicherheit. Für hohe
Performance-Anforderungen bieten derartige Systeme sehr schnelle Antwortzeiten. Allerdings stößt
die Skalierbarkeit an Grenzen, da ein monolithisches System mit einer begrenzten Zahl an
Storage-Controllern nicht beliebig viele Disks verwalten kann. Deshalb haben einige Hersteller wie
zum Beispiel EMC mit VMAX ihre Systeme dahingehend erweitert, dass ein Gesamtsystem mehrere
Storage-Controller in einer Matrix- oder Mesh-Architektur verwalten kann. Dies bietet eine deutlich
bessere Performance-Skalierbarkeit als die bisherigen monolithischen Systeme.

Auch die von Startups entwickelten Lösungen wie IBM XIV oder die Disk-Systeme von Pillar Data
Systems sind so konzipiert, dass sie sowohl ein Scale-up als auch ein Scale-out ermöglichen. Die
Arrays setzen sich aus Daten- und I/O-Modulen zusammen, die so kombinierbar sind, dass sich mit
demselben System sowohl hohe Anforderungen an die I/O-Performance als auch hohe Speicherkapazitäten
abbilden lassen.

Scale-out ist vor allem für unstrukturierte Daten von Bedeutung. IBM deckt diesen Bereich im
Entry-Level mit der DS3000-Familie ab. Für den unteren Midrange-Bereich hat IBM das neue Storwize
v7000 System entwickelt. Diese Appliance verwendet die hauseigene SVC-Storage-Virtualisierung (SAN
Volume Controller), um die Speicherressourcen zur Verfügung zu stellen. Den oberen Midrange-Bereich
decken die XIV-Syteme ab.

EMC hat mit VPLEX eine Plattform für ein Scale-out durch Clustering von Speichermodulen
entwickelt, die auch ein Daten-Caching für die Verbindung mit entfernten Standorten unterstützt und
für die Server-Virtualisierung optimiert wurde. Zudem hat EMC vor Kurzem angekündigt, den auf
Scale-out-Speicherlösungen spezialisierten Hersteller Isilon zu übernehmen. Isilon bietet eine
Unified-Storage-Plattform an, die sowohl die blockorientierten Protokolle FC und iSCSI als auch die
NAS-Protokolle NFS und CIFS unterstützt.

Von Hitachi Data Systems (HDS) sind ebenfalls Speicherlösungen erhältlich, die sich in mehrere
Richtungen skalieren lassen. Das neueste System heißt Virtual Storage Platform (VSP) und ist in der
Lage, Scale-up- wie auch Scale-out-Anforderungen zu erfüllen. Durch die integrierten
Virtualisierungsfunktionen kann VSP darüber hinaus Speichersysteme anderer Hersteller in einen
zentral verwalteten Storage-Pool einbinden. Ähnliche Möglichkeiten bieten
In-Band-Virtualisierungslösungen von Herstellern wie Datacore oder Falconstor. Diese sind ebenfalls
dafür ausgelegt, Speichersysteme unterschiedlicher Hersteller zentral zu managen. Zudem
unterstützen sie schon seit Jahren Funktionen wie Thin Provisioning für ein effizientes
Speicher-Management.

Standardhardware reduziert Kosten

Die von Startup-Unternehmen entwickelten Storage-Lösungen setzen fast durchgängig auf
Standard-x86-Server-Hardware anstelle der bisher üblichen proprietären Storage-Controller. Auch HP
will für künftige RZ-Infrastrukturen kostengünstige Standardhardware einsetzen. Die Server sollen
so flexibel sein, dass sie sowohl als Host für die Server-Virtualisierung als auch als
Storage-Controller einsetzbar sind.

Welche Funktion der jeweilige Baustein gerade ausführt, soll eine Management-Software regeln,
die die Komponenten abhängig von den aktuellen Anforderungen dynamisch umkonfigurieren kann.
Funktionen wie Deduplizierung oder Archivierung lassen sich über Plug-ins integrieren. Bis die
ersten Produkte auf den Markt kommen, die eine derart hohe Flexibilität bieten, dürfte aber
voraussichtlich noch einige Zeit ins Land gehen.

Bereits heute erhältlich ist das X9000-Chassis von HP. Es bietet voneinander unabhängige
Komponentenblöcke für den Ausbau der Speicherkapazität und die Controller-Performance, und zwar
sowohl auf File- als auch auf Block-Ebene. Die Lefthand-Produkte, die bislang als Appliance
erhältlich sind, bietet HP in Kürze als modulare Server an, deren Funktionen man über Plug-ins
individuell anpassen kann. Im Highend-Bereich wird HP weiterhin die HDS-Systeme als OEM anbieten.
Für Unternehmen, bei denen der Schwerpunkt im Storage-Bereich auf Service-Provisioning liegt, sind
die durch die Übernahme von 3PAR hinzugekommenen Systeme die erste Wahl. Auch die EVA- und
MSA-Systeme wird HP weiterhin vermarkten.

Backup und Archivierung

Um die Daten virtueller Server zu sichern, gibt es neben der klassischen agentenbasierten
Backup-Software mittlerweile Lösungen, die mithilfe von Snapshots auch größere Server-Zahlen
innerhalb kurzer Zeit sichern können. So unterstützt Commvault mit der neuen Simpana-Version 9 die
Funktion Snap Protect. Damit ist die Software in der Lage, die von Disk-Arrays erstellten Snapshots
der virtuellen Server über ein API direkt in die Datensicherung zu übernehmen. Dadurch lassen sich
deutlich mehr virtuelle Server gleichzeitig sichern, als es bisher möglich war. Nach Angaben von
Commvault sollen sich innerhalb von knapp 20 Minuten etwa 500 virtuelle Maschinen sichern
lassen.

Durch eine auf dem Client durchgeführte Deduplizierung, die sich mit Kompression und
Verschlüsselung kombinieren lässt, eignet sich die Software auch für ein Backup von Zweigstellen.
Die erstellten Snapshots indiziert Simpana und kann sie damit für die Wiederherstellung der Daten
nutzen. Neu in Simpana 9 ist auch die Unterstützung von Retention-Regeln und eine
Content-Indexierung. Damit erfüllt die Backup- und Archivierungslösung nun auch
Governance-Anforderungen für die Aufbewahrung geschäftlich relevanter Daten.

Mit Speichervirtualisierungslösungen, wie sie zum Beispiel Datacore und Falconstor bereits seit
einigen Jahren anbieten, lassen sich vergleichsweise kostengünstig Disaster-Recovery-Lösungen
realisieren. Ein großer Vorteil ist ihre Herstellerunabhängigkeit, die es ermöglicht, ein Midrange-
oder Highend-Disk-Array eines Herstellers auf ein kostengünstiges Speichersystem eines anderen
Herstellers zu replizieren. Durch die Speichervirtualisierung ist zudem ein transparenter Failover
und Failback möglich.

Selten genutzte Daten lassen sich durch so genannte HSM-Lösungen
(Hierarchical-Storage-Management) effizient verwalten. Sie verschieben Dateien, auf die eine
gewisse Zeit kein Zugriff erfolgt ist, automatisch auf kostengünstigere Speichermedien. Die
Benutzer bekommen die Datei immer noch an ihrem ursprünglichen Ort angezeigt und können sie nach
wie vor öffnen. Nur dauert dies etwas länger, falls die Datei erst von der Bandbibliothek
eingelesen werden muss.

Derartige HSM-Lösungen sind schon länger erhältlich. Einige Hersteller von Speichersystemen
haben diesen Ansatz weiterentwickelt und bieten Disk-Arrays an, die Datenbereiche anhand der
aktuell benötigten Performance automatisch zwischen schnelleren und langsameren Disk-Bereichen hin-
und herverschieben. Bei EMC heißt diese Technik FAST (Fully Automated Storage Tiering), HDS bietet
für USP eine vergleichbare Funktion an. Auch Startup-Unternehmen wie Equallogic, 3PAR und Pillar
Data Systems unterstützen dieses Feature.

Netapp hat vor kurzem seine neue Generation der Midrange- und Highend-Speichersysteme FAS 3200
und FAS 6200 vorgestellt. Die Disk-Arrays unterstützen so genannte Transparent Data Mobility. Damit
lassen sich Daten unterbrechungsfrei zwischen den verschiedenen Storage-Tiers wie FC, SAS, SATA
oder SSD verschieben.

Mit der ARX-Lösung hat F5 Networks einen anderen Weg für ein automatisches Storage-Tiering
eingeschlagen: Das System agiert als Full Proxy, der die Benutzer zu ihren Daten routet. Der
physische Speicherort der Daten bleibt erhalten, und es sind weder Platzhalter noch Agenten nötig.
Die File-Service-API von F5 ermöglicht zudem eine Integration in andere
Daten-Management-Lösungen.

RZ-Infrastruktur im Wandel

Der erste Antrieb, konvergente Lösungen für LAN und SAN zu entwickeln, ging von Blade-Servern
aus, die auf ein zentrales Speichersystem zugreifen. Ein Blade-Rack kann 200 oder mehr Server
aufnehmen, die alle eine Ethernet- und eine SAN-Anbindung benötigen. Damit nicht jeder Blade-Server
verkabelt werden muss, haben die Anbieter von Blade-Systemen im ersten Schritt in jedes
Chassis-Modul Ethernet- und SAN-Switches integriert. Die Blade-Server wurden via Chassis-Backplane
redundant an die Switches angebunden.

Aktuelle Blade-Systeme gehen über diesen Ansatz zum Teil weit hinaus. So hat Cisco mit der
UCS-Plattform (Unified Computing System) so genannte Fabric Interconnects eingeführt, mit denen
sich die LAN- und SAN-Kommunikation der Blade-Server über einen zentralen Link führen lässt. Die
10-Gigabit-Ethernet-Verbindung unterstützt FCoE (Fibre Channel over Ethernet) und kann dadurch LAN-
und SAN-Protokolle gleichzeitig transportieren. Auch Fujitsu, HP und IBM haben bereits konvergente
Blade-Server-Lösungen entwickelt.

Der nächste Umbruch in der RZ-Infrastruktur kündigt sich bereits an: Mit 10 Gigabit Ethernet
rücken Speichernetze auf iSCSI- und NAS-Basis dem klassischen Fibre-Channel-Protokoll auch
leistungsmäßig immer näher. Zwar hat die SNIA den 16-GBit/s-FC-Standard vor kurzem verabschiedet,
und der nächste Schritt wird laut Roadmap FC mit 32 GBit/s sein. Bei Ethernet sind aber bereits die
ersten Switches mit 40-GBit/s-Ports verfügbar, und in ersten Testinstallationen läuft bereits
100-GBit/s-Ethernet. So bringt Blade Network, die gerade von IBM übernommen wurden, in Kürze einen
10-GbE-Switch auf den Markt, der über vier Uplink-Ports mit 40 GBit/s verfügt. Der Einsatz von FCoE
als Brückentechnik wird deshalb in den nächsten Jahren kontinuierlich ansteigen.

Die Netzwerkspezialisten Cisco, Juniper und Brocade peilen bereits den nächsten großen Sprung
an. Alle drei Hersteller arbeiten derzeit an so genannten Ethernet Fabrics, die ein Lossless
(verlustfreies) Ethernet ermöglichen sollen. Sie nutzen hierfür Data Center Bridging
beziehungsweise Converged Enhanced Ethernet in Verbindung mit dem TRILL-Protokoll (Transparent
Interconnect of Lots of Links), das den Spanning Tree ablösen soll. Diese neuen Ethernet Fabrics
sollen in der Lage sein, die LAN- und SAN-Kommunikation über dieselbe Switch-Infrastruktur zu
transportieren.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+