Wenn Fibre-Channel und IP zusammenkommen, öffnen sich viel versprechende Perspektiven für das Speichermanagement. Und auch die so überwindbaren Einschränkungen in der räumlichen Ausbreitung entfallen.
Permanente Datensicherung mit unterbrechungsfreiem Recovery ist heute in vielen Szenarien ein absolutes Muss.
Mitte der neunziger Jahre verabschiedete das ANSI-Komitee X3T11 den Standard X.3230 für Fibre-Channel, kurz FC. Robuster Highspeed-Verkehr, wie er für den Transport eng gepackter Daten auf Blocklevel erforderlich ist, hielt nun auch abseits elitärer Mainframe-Umgebungen Einzug. Übertragungsraten von 133 MBit/s bis zu 10 GBit/s plus topologische Flexibilität ließen FC schnell zur ersten Wahl für Speichernetze werden. Damit blieb es nicht länger Großfirmen vorbehalten, ihre Speicher- und Rechenressourcen zu entflechten.
Seit E-Business-Anwendungen auch in mittelständischen Betrieben immer größere Datenmengen produzieren, geraten exklusive physikalische Zuordnungen zwischen Server und Speichergeräten – auch Direct-Attached-Storage oder kurz DAS genannt – in die Defensive. Als Alternative zu DAS gewinnen Storage-Area-Networks (SAN), die sämtliche Speicherkapazitäten in autarken Subnetzen bündeln, weiter an Boden. Mit SAN wird ein durchgängiges Speichermanagement möglich, das zum Beispiel auch eine unternehmensweit gültige Backup-Recovery-Policy umfasst und damit zur Gesamtverfügbarkeit geschäftskritischer Systeme beiträgt.
Dass Fibre-Channel zum Verbindungsmedium Nummer Eins im SAN avancierte, liegt nicht nur an den hervorragenden Performance-Eigenschaften. Mindestens ebenso wichtig dürfte der weite Spielraum sein, den Fibre-Channel für das Design von Speichernetzen bietet.
Fibre-Channel verlangt weder eine kanaltypische Architektur noch ein bestimmtes Netzwerkprotokoll. Dank direkter Port-Konnektivität können Punkt-zu-Punkt-Verbindungen genauso gut zum Port eines Hubs, einer Switching-Fabric oder einer Loop führen. Mit anderen Worten: Stern- oder kaskadenförmige Netzsegmente lassen sich nahezu beliebig kombinieren. Ein Ring, der zum Zwecke höherer Ausfallsicherheit doppelt ausgelegt ist, könnte beispielsweise mehrere Switched-Fabric-Inseln zu einem gemeinsamen SAN verbinden.
Gleichwohl hat auch die FC-Medaille ihre zwei Seiten. So bereitet der Einsatz von FC-Switches verschiedener Hersteller bis heute zum Teil erhebliche Probleme. In heterogenen Umgebungen müssen fast immer unterschiedliche APIs implementiert werden – was aufwändige Tests nach sich zieht, Entwicklungen verzögert und das SAN nicht selten unverhältnismäßig verteuert.
Interoperabilität hat sich daher eine Industrieallianz auf die Fahne geschrieben, unter der seit Sommer 2002 die Großen der Branche gemeinsam marschieren, mit dabei unter anderem Cisco, EMC, Hitachi und HP. Ihre gemeinsame Storage-Management-Initiative, kurz SMI, beschränkt sich aber nicht nur auf technische Schnittstellendefinitionen. SMI orientiert sich vielmehr an grundlegenden Empfehlungen der DMTF (Distributed-Management-Task-Force), vor allem am allgemeinen Modell WBEM, dem Web-Based-Enterprise-Management. Ziel ist es, jede Anwendung ad hoc mit exakt derjenigen Speichermenge zu versorgen, die im Augenblick tatsächlich gebraucht wird. Die Hersteller verbinden damit die Hoffnung, dass die verbesserte Ausnutzung der Unternehmensressource Storage sowie sinkende Entwicklungs- und Managementkosten zu Katalysatoren für den ohnehin aufstrebenden SAN-Markt werden.
Mit der Verbreitung von FC-Switches verliert die Loop-Architektur im SAN an Attraktivität. Denn alle angeschlossenen Ports müssen sich die verfügbare Bandbreite teilen. Aus Sicht der Performance hat die Switched-Fabric klare Vorteile: Hier kann jede Speichereinheit mit jedem Server über mehrere Switches verbunden werden, so dass sich Bandbreitenwerte für jedes Gerät skalieren lassen. Außerdem entstehen zusätzliche Kommunikationspfade, die für entsprechend höhere Redundanz sorgen. Switched-Fabric-Architekturen gelten deshalb auch als erste Wahl für Hochverfügbarkeitssysteme. Die meisten FC-Switches bieten heute erweiterte Softwarefunktionalitäten, mit denen sich auch im SAN verschiedene Prioritäten für Quality-of-Service (QoS) steuern lassen.
Spätestens wenn Kunden via Internet direkt auf Bestell- oder Auktionssysteme zugreifen, kann jeder Ausfall – und sei er noch so kurz – zum geschäftlichen Desaster werden. Permanente Datensicherung mit unterbrechungsfreiem Recovery ist in solchen Szenarien ein absolutes Muss. Hochkritische Anwendungen kommen an synchroner Datenspiegelung nicht vorbei: Hierbei wird jede Write-to-Disk-Transaktion via SAN parallel auf mehrere räumlich entfernte Speicher geschrieben. Beim Absturz des operativen Systems schalten Failover-Mechanismen sofort auf den Stand-by-Rechner um. Das Gesamtsystem arbeitet stabil; vom Ausfall des Teilsystems bemerken die Nutzer nichts.
Sind die Verfügbarkeitsansprüche weniger extrem und ist kein Failover geplant, bieten asynchrone Replikationsmethoden eine kostengünstige Alternative zum teuren Mirroring. Als Faustregel gilt: Je größer der zeitliche Verzug der Replikation, desto länger dauert die Wiederherstellung der Daten. Oft lassen sich asynchrone Replikationen vorteilhaft mit Snapshots – in kurzen Zeitabständen aufgenommenen Speicherabbildern – kombinieren. Bei Verlust der Originaldaten müssen dann nur die letzten, noch von keinem Snapshot eingefangenen Transaktionen nachvollzogen werden.
Sollen Daten jedoch in ein weit entferntes Rechenzentrum repliziert werden, stoßen pure Fibre-Channel-SANs an eine technologische Grenze: Die maximale Reichweite von FC ist auf zehn Kilometer beschränkt. Gleichzeitig wächst bei immer mehr Firmen der Bedarf, lokale Speichernetze verschiedener Standorte überregional zu einem gemeinsamen SAN zu verknüpfen.
Dafür hält FC diverse Extensionsoptionen bereit: Sind die Niederlassungen bereits per Glasfaser verbunden, liegt eine native Fibre-Channel-Erweiterung nahe. Als besonders leitungseffizient bietet sich zum Beispiel Coarse-Wavelength-Division-Multiplexing (CWDM) an. Die CWDM-Lösung von Cisco belegt beispielsweise jedes Faserpaar mit bis zu acht Channels zu je 1 oder 2 GBit/s. In Sachen Protokollvielfalt punktet Dense-Wavelength-Division-Multiplexing (DWDM) mit größerer Flexibilität im Mainframe-Bereich: Neben FC werden auch FICON, ESCON oder die IBM-Sysplex-and-Coupling-Link-Protokolle unterstützt. Zudem eignen sich CWDM und DWDM nicht nur für Speichernetze, sondern auch für Gigabit- und 10-Gigabit-Ethernet-Datennetze. Nicht zu vergessen ist SONET/SDH (Synchronous-Optical-Network/Synchronous-Digital-Hierarchy), ein Standard, der sich bereits seit Mitte der 80er Jahre in optischen Netzen bewährt. Sowohl Ethernet als auch DWDM lassen sich mit SONET/ SDH kombinieren. SAN-Erweiterungen können demnach von Investitionen profitieren, die schon sehr lange zurückliegen. SONET und DWDM haben sich bei etlichen Service-Providern als Basis für die komplette Übernahme des Speichermanagements im Kundenauftrag etabliert. Storage-Hosting oder Managed-Storage-Services teilt jeder Kundenfirma vereinbarte Kapazitäten gemäß definierter QoS zu – mit entsprechenden Anforderungen an Security und Manageability.
Sicherheit im FC-SAN ist eng mit dem Fibre-Channel-Security-Protokol FC-SP verknüpft, das zum Beispiel vom Betriebssystem der Cisco-MDS-9000-Switchfamilie unterstützt wird. FC-SP ermöglicht sowohl Switch-to-Switch- als auch Switch-to-Server-Authentifizierungen. Ab Betriebssystemversion 1.3 lassen sich Autorisierung und Authentifizierung sogar gemeinsam mit der Kostenzuordnung verwalten.
Für vereinfachtes SAN-Management sorgen integrierte Common-Information-Model-Schnittstellen (CIM). CIM ist ein hardware- und installationsunabhängiges Informationsmodell, das physikalische und logische Speicherobjekte sowie ihre Beziehungen untereinander beschreibt. Ein Beispiel für eine derartige Schnittstelle ist das Fabric-Device-Management-Interface (FDMI), mit dem sich Host-Bus-Adapter zentral platzieren lassen. Sie müssen daher nicht mehr separat von mehreren Servern administriert werden.
Für Unternehmen, die ihr Speichermanagement nicht aus den Händen geben wollen, bietet die Anbindung von FC-SANs an vorhandene IP-Netzwerke eine interessante Option. Die Möglichkeit dazu liefert FCIP. Die Cisco-VSAN-Technologie wurde im Oktober 2004 dem Technischen Kommittee T11 des International Committee for Information-Technology Standards (INCITS) als Standardisierungsvorschlag vorgelegt. FCIP nutzt Glasfaser-Tunneltechniken, wobei ein spezielles Edge-Device am Rand des SAN die Brücke zum IP-Netz schlägt. FC-Frames werden in IP verpackt. Auf diese Weise wird über eine TCP/IP-Verbindung ein Fibre-Channel-Inter-Switch-Link (ISL) simuliert. Mit FCIP kann ein vorhandenes IP-Backbone entfernte SANs verbinden, ohne dass dafür irgendwelche Änderungen an FC-Fabrics, Servern oder Storage-Geräten erforderlich wären.
Auf langen Übertragungsstrecken harren meist Latenzprobleme. Latenzen verlangsamen den Datenfluss und machen sich bei I/O-Responses als Verzögerung bemerkbar. Anders als Web-Browsing oder E-Mail-Anwendungen, die mit spärlichen, häufig unterbrochenen und kurzen Datenübertragungen problemlos zurechtkommen, sind Speicherlösungen sehr empfindlich gegenüber Stau, Paketverlusten und Latenzen. Speicherverkehr besteht meist aus großen Chunks dicht gepackter Daten, die über längere Zeiträume hinweg unterbrechungsfrei übertragen werden. Die Anfälligkeit gegen Netzwerkinkonsistenzen mit verringertem Durchsatz ist nicht zu unterschätzen. Online-Transaction-Processing-Applikationen (OLTP) beispielsweise können die üblichen Latenzen und den unvermeidlichen Jitter in heutigen IP-Netzen nicht verkraften. Denn bei OLTP erfordern Datenbankzugriffe bestimmte, absolute Antwortzeiten. Gehen Pakete verloren, müsste die Applikation von sich aus eine erneute Übertragung initiieren – an Stelle kleiner Pakete also noch einmal der komplette große Datenblock.
Fehlerkorrektur auf Applikationsebene und Block-Level scheidet somit als zu uneffektiv aus. Leistungsfähige FCIP-Lösungen warten deshalb mit so genanntem Adaptive-Error-Recovery auf: Retransmissionen auf IP-Paket-Ebene verhindern, dass größere Datenmengen erneut übertragen werden müssen. Zyklische Redundanz-Checks (CRCs) sichern die Datenintegrität auf Netzwerkebene und entlasten so die Host-Applikation. Intelligen-tes Payload-Matching gleicht die unterschiedlichen Datenmengen von FC-Frames und IP-Paketen aus und ermöglicht so eine effektivere Datenflusskontrolle.
Wie leistungsfähig und robust FCIP schon heute sein kann, zeigt das derzeit weltgrößte SAN, das die vier nordamerikanischen Datenzentren von Cisco Systems integriert, je zwei im kalifornischen San Jose sowie im Research Triangle Park im östlichen Bundesstaat North Carolina. 39 Cisco-MD-9000-Switches und rund 5500 FC-Ports ergeben ein Mammut-SAN, das insgesamt 1,5 PByte Speicherkapazität offeriert. FCIP-Überlandleitungen sind vor Ort mit diversen anderen Konnektivitätsmethoden kombiniert. In San Jose sorgen beispielsweise zwei load-balanced Port-Channels mit je 16 GBit/s über CWDM für ausreichend Redundanz. Logisch teilt sich das Cisco-SAN in 74 virtuelle SANs (VSAN).
Virtualisierung von Speichernetzen ist die Voraussetzung dafür, dass Speicherkonsumenten unterbrechungsfrei Ressourcen gemäß definierter Service-Level-Agreements (SLA), wie Kapazität, Performance und Verfügbarkeit, zugewiesen werden können. VSANs arbeiten getrennt voneinander, sie sind skalierbar, verfügen über eigene Sicherheitskriterien und individuelle Dienste, etwa Name-Service, Zoning oder FSPF-Routing. Dank Inter-VSAN-Routing können Server in den verschiedenen VSANs auf gemeinsame Speicherressourcen zugreifen, wobei der Datenverkehr selektiv über die SAN-Devices verschiedener VSANs geleitet werden kann – ohne dass diese einer einzigen logischen Fabric angehören müssen. Cisco plant, ihr amerikanisches SAN via FCIP nach Holland und Israel auszudehnen und damit ein globales Speichermanagement zu etablieren.
Gleichwohl hat Storage-Virtualisierung auch in mittelständischen Firmen und kleineren Institutionen das Potenzial, die Speicherausnutzung zu intensivieren und gleichzeitig die Ausfallsicherheit zu erhöhen. Noch zeigen sich viele Mittelständler bedeckt; sie richten den Blick meist einseitig auf die Einstiegsinvestitionen für SAN. Rechnet man jedoch die nachhaltigen Einsparungen dank vereinfachter Administration dagegen und stellt die Gesamtsystemkosten, die so genannten Total-Cost-of-Ownership (TCO) in den Vordergrund, ergibt sich in fast allen Fällen eine positive Bilanz. Das gilt umso mehr, je flexibler und protokolloffener die eingesetzte Technik ist, weshalb Cisco einen dezidierten Multiprotokollansatz für ihre MDS-9000-Switch-Serie verfolgt.
Selbst kleine Unternehmen können von aktuellen Storage-Area-Network-Trends profitieren: Denn iSCSI bietet wirtschaftlich vernünftige Optionen, rein IP-basierte Speichernetze zum Beispiel über ein vorhandenes 10-Gigabit-Ethernet zu betreiben. Als Verbindung kommen sowohl iSCSI-Host-Bus-Adapter (HBA) als auch Speicher-Netzwerkkarten in Frage, die Disk-Arrays oder Bandbibliotheken per IP-Ethernet-Switch integrieren. Der weitgehende Rückgriff auf vorhandene Netzinfrastrukturen spart Investitionen, womit sich iSCSI für viele Firmen als ein überaus preiswertes Ticket in ein zeitgemäßes Storage-Management empfiehlt. Ulrich Hamm, Consulting System Engineer, Cisco Systems