Das moderne Data Center besteht zunehmend aus verteilten, virtuellen Infrastrukturen, Public und Private Clouds sowie großen Speicherressourcen, die gleichzeitig Daten vieler unterschiedlicher Applikationen vorhalten müssen. Die wachsende Zentralisierung und Konsolidierung stellt unter dem Aspekt der Hochverfügbarkeit und Ausfallsicherheit allerdings hohe Ansprüche an die Stabilität der Speicherarchitektur und die Flexibilität ihres Managements.
Aus dem Blickwinkel von Hochverfügbarkeit und Ausfallsicherheit zeigen die Trends zu
Virtualisierung und Zentralisierung in der IT eine positive und eine negative Seite. Eine
konsolidierte und zentralisierte IT-Umgebung ist einerseits einfacher zu managen und erleichtert
die Implementierung einer hochverfügbaren Architektur. Andererseits bedeutet dies aber auch, dass
die Auswirkungen eines Ausfalls oder eines Fehlers viel verheerender sein können. Damit stellt eine
zentralisierte IT ein erhöhtes Risiko dar. Die Ansätze für Hochverfügbarkeit und Ausfallsicherheit
sowie die Methoden zum Schutz von Speicherressourcen müssen sich daher wandeln.
Der Hunger nach Speicherressourcen ist ungebrochen. Dies hat zum Aufbau großer, sehr komplexer
Speicherinfrastrukturen mit vielen unterschiedlichen Tiers von SAN- und NAS-Speicherverbünden
geführt. Als größte Herausforderung stellt sich dabei heraus, dass es sehr schwierig und teuer ist,
für jedes Speicher-Level eine konsistente Strategie, Richtlinien und
Wiederherstellungsmöglichkeiten vorzuhalten und zu verfolgen. Viele Unternehmen betreiben nach wie
vor verschiedene Speicher-Arrays für die unterschiedlichen Anforderungen hinsichtlich Performance
und Verfügbarkeit von Daten. Diese Arrays muss die Administration mit herstellerspezifischer
Software managen. Ausfallsicherheit und Wiederherstellung von Daten bedürfen weiterer
herstellerspezifischer Applikationen. Das IT-Personal ist daher mit einer Fülle von Anforderungen
im Umgang mit den unterschiedlichsten Softwareprodukten konfrontiert, und es gilt, das
entsprechende Know-how im Unternehmen aufzubauen und auf dem aktuellen Stand zu halten – ein
Aufwand, der teilweise erhebliche Kosten verursacht.
Allerdings gibt es inzwischen auch moderne Speicherlösungen am Markt, die ein konsolidiertes
System mit verschiedenen, in einem System integrierten Speicher-Levels vorhalten und zudem –
entsprechend den Verfügbarkeitskriterien der vielen unterschiedlichen Anwendungen – die passenden
Performance-Levels bedienen. Doch auch bei diesem Ansatz bleibt ein gewisses Restrisiko: Ohne die
richtigen Hochverfügbarkeits-, Ausfallsicherheits- und RAID-Techniken besteht immer noch die Gefahr
eines "Single Point of Failure". Innerhalb von SAN-Speichersystemen – vor allem bei denen, die im
modernen Data Center zentralisiert zum Einsatz kommen – muss daher gewährleistet sein, dass die
Architektur keinen solchen Single Point of Failure aufweist – sei es bei der Energieversorgung, den
Controllern, der CPU oder der Management-Konsole.
Um Hochverfügbarkeit und Ausfallsicherheit im Storage-Bereich sicherzustellen, sollten
IT-Verantwortliche zwei Punkte berücksichtigten: zum einen Schutz und Sicherung der Daten – sowohl
lokal als auch an verteilten Orten. Zum anderen spielt für Hochverfügbarkeit und Ausfallsicherheit
auch die Performance eines Speichersystems eine große Rolle. Moderne Speichersysteme setzen dazu
auf bewährte Technikkonzepte wie Replikation, Spiegelung, Snapshots sowie redundant ausgelegte
Laufwerke und Komponenten. Neuere Konzepte wie Quality of Service, automatisches Tiering,
intelligente Alarmfunktionen und Datensicherungsfunktionen auf RAID-Level leisten einen weiteren
wichtigen Beitrag.
Bei der Nutzung von Replikation etwa muss jede Speicherrichtlinie auch festlegen, welche Daten
zu kopieren sind und wie und wo sie schließlich gespeichert werden. Dies kann ein einfaches, reines
Kopieren der Daten auf einer Block-für-Block-Basis sein, bis hin zu einem umfassenden Ansatz, der
auch die Art der unterstützten Applikation sowie Migrationsmöglichkeiten integriert.
Dementsprechend verlangt Letzteres eine Replikation zwischen gleichen Systemen oder eine heterogene
Replikation zwischen den Systemen verschiedener Hersteller.
Der Ansatzpunkt für jede Art von Disaster-Recovery- oder Hochverfügbarkeitsprojekten sollte
daher immer die Abschätzung des Einflusses und der verbundenen Risiken sein, die der Verlust von
Daten für die jeweiligen Anwendungen bedeutet, die auf dem Dateisystem laufen. Nicht alle
Anwendungen werden den höchsten Schutz-Level benötigen: So dürfte beispielsweise der Ausfall einer
unternehmenskritischen Applikation zur Unterstützung eines E-Commerce-Systems wesentlich
schwerwiegender sein als der einer Anwendung, die Dokumente archiviert.
Welche Ausfallsicherungs- und Wiederherstellungsmöglichkeiten moderne Speichersysteme heute
bieten, lässt sich beispielsweise an dem Axiom-System von Pillar Data illustrieren. Dabei spielen
sowohl Hardware- als auch Softwareaspekte eine wichtige Rolle. So ist eine integrierte Appliance,
die von vornherein auf Stabilität und Hochverfügbarkeit ausgelegt ist, ebenso förderlich wie die
Konzentration auf eine einzige Management-Konsole. Letzteres erspart es der Administration, sich
mit vielen unterschiedlichen Softwareassistenten herumschlagen zu müssen – ein Unsicherheitsfaktor,
den Unternehmen nicht unterschätzen sollten.
Zu einer Hochverfügbarkeitsarchitektur zählen auf der Ebene der Storage Controller ("Slammer")
zum Beispiel miteinander verpaarte Active-Active-Kontrolleinheiten. Jedes Paar beinhaltet dabei
zwei CPUs und jeder Slammer zwei batteriegestützte Caches mit einer Kapazität von beispielsweise 48
GByte. Auf diese Weise fungiert jeder Slammer standardisiert als Hochverfügbarkeitseinheit.
Miteinander redundant verknüpfte Disk-Arrays ("Bricks") und die Controller sorgen dafür, dass
unterschiedlichste Datenpfade verfügbar bleiben. Die Widerstandskraft eines solchen Systems lässt
sich weiter erhöhen durch den paarweisen Einsatz von RAID-Controllern in jedem Brick, um die
Performance aufrechtzuerhalten. Das Hinzufügen weiterer Slammer kann die Gesamtverfügbarkeit und
Performance einer solchen Hardwarearchitektur nochmals verbessern.
Ein weiteres Element im Rahmen einer derartigen Architektur ist die Möglichkeit, verschiedene
RAID-Gruppen und RAID-Typen zu nutzen. Die Strategie der intelligenten Verteilung der Daten auf der
Basis von RAID-Gruppen bietet die Flexibilität, je nach Performance-Anforderung mehr oder weniger
RAID-Gruppen und damit Laufwerke zuzuweisen. In einem Szenario mit maximaler
Performance-Anforderung lassen sich somit sogar alle im System vorhandenen Laufwerke einbinden.
Diesen Prozess – wie auch die RAID-Level-Auswahl – vollzieht das System automatisch, der
Administrator braucht keine Zuweisungen von Laufwerken oder Ähnliches vorzunehmen.
Um ein Höchstmaß an Verfügbarkeit im Storage-Bereich zu erreichen und damit die Effekte eines
Ausfalls möglichst gut abzufedern, muss beides sichergestellt sein: sowohl der Schutz von Daten als
auch die Möglichkeit der Datenwiederherstellung. Dazu dient beispielsweise eine Funktion wie "
Pre-Emptive Copy", die bei einem sich ankündigenden Festplattenausfall Daten auf ein anderes
Laufwerk kopiert, noch bevor es zum Fehler kommt. Sollte ein aktives Laufwerk dennoch ausfallen,
sorgen – wie beschrieben – redundant ausgelegten Speicher-Controller und Disk Arrays dafür, dass
der Betrieb aufrechterhalten bleibt.
Beim Thema Hochverfügbarkeit spielt neben einer intelligent aufgebauten Hardware auch die
Management-Software eine nicht zu vernachlässigende Rolle. Diese sollte Administratoren ein
Höchstmaß an Flexibilität einräumen. Ein Beispiel ist die Definition von Recovery-Profilen, die auf
der Priorität der Applikation beruhen, die eine Speicherressource nutzt. Hochkritische Daten lassen
sich dann beispielsweise doppelt redundant abspeichern. Hinzu kommen Möglichkeiten wie die Ablage
einer Kopie von ganzen Laufwerken, platzoptimierte Snapshots und Clones von bestimmten
Wiederherstellungszeitpunkten bis hin zur Replikation von Daten über unterschiedliche Standorte
hinweg.
Grundsätzlich muss eine Erhöhung der Effizienz und Nutzungsraten einer Speicherarchitektur auch
keineswegs im Gegensatz zur Forderung nach einer Reduzierung der Anzahl der Systeme und der
verbrauchten Energie oder der Zeit für Administration stehen – unabhängig davon, ob das Data Center
um eine private Cloud-Infrastruktur konstruiert ist oder als konsolidierte Speicherarchitektur
besteht. Um alle möglichen Vorteile aus einer Speicherinfrastruktur herauszuholen, ist es vielmehr
notwendig, dass der Anwender die richtigen Datensicherungs- und Hochverfügbarkeits-Levels in der
Speicherarchitektur justieren kann. Die Speicherarchitektur sollte den Betreiber agieren und nicht
bloß reagieren lassen.