Zur Zeit drängen im Lowend kleine »Plug-and-Play«-SANs für Arbeitsgruppen und Mittelständler auf den Markt, während im Highend eher Virtualisierungstechniken und SAN-Verbindungen über weite Entfernungen eine Rolle spielen.
Architekturen für Speichernetze
Bei großen Umgebungen steht die Übertragungstechnologie im Mittelpunkt des Interesses. Hier gilt es die richtige Mischung zu finden.
Cisco, EMC, Qlogic und andere Unternehmen bieten inzwischen SANs für kleinere Unternehmen an. In diesem Bereich konnte die SAN-Technologie wegen der hohen Preise und des großen Verwaltungsaufwands bisher nicht richtig Fuß fassen. Da kleine Unternehmen in der Regel über keine besonders hoch qualifizierten Speicheradministratoren verfügen, spielen hier die SAN-Verwaltungswerkzeuge eine besonders wichtige Rolle. Die »Einsteiger-SANs« kommen meist in einer festen »Out-of-the-Box«-Konfiguration, deswegen ist es möglich, die Administrations-Tools genau an die mitgelieferte Hardware anzupassen. Diese Werkzeuge sind also nicht besonders flexibel, was die Hardware-Umgebungen angeht, aber dafür so einfach zu bedienen, dass auch verhältnismäßig unerfahrene Mitarbeiter damit zurecht kommen.
Meistens arbeiten SAN-Administrationswerkzeuge im Lowend-Bereich mit einer zentralen grafischen Benutzeroberfläche, über die die Verantwortlichen dazu in der Lage sind, sämtliche SAN-Komponenten zu verwalten, also Host-Bus-Adapter (HBAs), Switches und Speichergeräte. Zum Einrichten des SANs und zum Konfigurieren von Failovers, Load-Balancing, Zoning und ähnlichen Funktionen kommen Wizards zum Einsatz, die die Anwender Schritt für Schritt durch den Administrationsprozess führen. Manche Tools – wie etwa SAN-Surfer von Qlogic – erlauben es ihren Benutzern sogar, das Zoning mittels Drag-and-Drop durchzuführen.
Das was heute als mittlere SAN-Umgebung angesehen wird ist eigentlich der Einsatzbereich, in dem sich SANs ursprünglich durchsetzen konnten. Hierbei handelt es sich um die Speicher-Pools großer Unternehmen, die hohe Anforderungen an Kapazität, Verfügbarkeit und Leistung erfüllen müssen, die aber an einem zentralen Ort arbeiten und keine weiten Verbindungen überbrücken. Hier liegt das Hauptaugenmerk auf der SAN-Architektur. Die Verantwortlichen müssen zunächst feststellen, ob sie den erforderlichen Durchsatz mit Switches, Interswitch-Links (ISLs) oder größeren Lösungen realisieren können.
In der Regel arbeiten im Kern der SANs mittlerer Größe Fibre-Channel-Netzwerke. Diese setzen wiederum auf Fibre-Channel-Switches auf. Solche Switches funktionieren so ähnlich wie LAN-Switches und verwenden ASICs mit Interconnect-Bussen oder -Pfaden für die Verbindung. Switches mit hoher Port-Zahl, die mehrere Protokolle unterstützen und hochverfügbar sind, wie der Ultra-Net-Multistorage-Director (UMD) von CNT, heißen auch Fibre-Channel-Directoren. Solche Directoren bieten 512 oder mehr Ports in einem einzigen Gerät, ohne dass ISLs nötig werden. Sie eignen sich zum Aufbau von Hochverfügbarkeitsumgebungen mit doppelten oder alternativen Wegen. Darüber hinaus können sie als so genannte Core-Directoren zum Einsatz kommen, die Edge-Directoren und -Switches über Non-Blocking Any-To-Any-Connections anbinden.
Für die Leistung des Speichernetzes spielt die so genannte Locality der Hosts/Server und Speichersysteme eine große Rolle. Je mehr Ports ein Switch oder Director aufweist, desto mehr Geräte und Ports lassen sich mit nur einem Hop erreichen. Wurden alle Ports belegt, so müssen die Administratoren für den Anschluss weiterer Komponenten zusätzliche Switches integrieren, die sie über ISLs zu einem Mesh oder einer Multi-Stage-Fabric verbinden. Dieses Vorgehen bringt aber zusätzliche Hops und damit eine Verschlechterung der Leistung mit sich. Darüber hinaus wird auch das Management solcher Umgebungen viel komplexer. Demzufolge müssen die Verantwortlichen beim SAN-Design nicht nur die Anordnung der Hosts, Server und Speichersysteme genau überlegen, sondern auch auf andere Faktoren, wie Management, Sicherheitsmaßnahmen, Tuning und Load-Balancing achten.
Anwendung, Umgebung und Total-Cost-of-Ownership (TCO) entscheiden darüber, ob Switches in einem Mesh, in einer Multi-Stage-Fabric oder Highend-Directoren mit hoher Port-Kapazität die beste Lösung sind. Generell gilt, dass Switches mit niedrigen Portzahlen eine Skalierbarkeit auf rund 100 Ports erlauben, während Directoren mit hoher Port-Kapazität auf mehrere tausend Ports skalierbar sind. Oft machen die Verantwortlichen hier den Fehler, die niedrigeren Anschaffungskosten pro Port bei Switches den Ausschlag für die Entscheidung geben zu lassen, anstatt sich die TCO vollständig auszurechnen.
In diesem Zusammenhang spielt auch die benötigte Verbindungsqualität eine wichtige Rolle. Diese »Quality of Connection« oder kurz QoC liegt bei den Directoren am höchsten. Folglich sollten sich die Speicheradministratoren in Umgebungen, in denen eine Verfügbarkeit von 99,99 Prozent oder mehr gefordert wird, für Directoren entscheiden. Das gleiche gilt, wenn Ausfallzeiten ein finanzielles Risiko darstellen. Für den Director-Einsatz benötigen die Unternehmen zudem wenig Personal und die Betriebskosten bleiben überschaubar.
Switch-Fabrics stellen dann die bessere Lösung dar, wenn die Anschaffungskosten eine große Rolle spielen, die Anwendungen gewisse Performance-Einbussen verkraften und eine Verfügbarkeit von 99,9 Prozent ausreicht. Wer darüber hinaus wenig Bandbreite, geringe Skalierbarkeit und einen einfachen Aufbau benötigt, der trifft mit Fibre-Channel-Switches die richtige Wahl.
Das Management von SANs der mittleren Ausbaustufe gestaltet sich deutlich komplizierter als das von Speichernetzwerken für Einsteiger. Das liegt nicht nur an der großen Zahl unterschiedlicher Komponenten, die zu berücksichtigen sind, sondern auch an den höheren Anforderungen, beispielsweise wenn es darum geht, die SAN-Daten in ein zentrales Management-System zu integrieren. In der Regel sieht es so aus, dass die Hersteller ihre Management-Werkzeuge für SANs mit Standard-MIBs ausgestattet haben, die die Informationen der unterschiedlichen Plattformen an Management-Systeme wie IBM-Tivoli, HP-Openview oder CA-Unicenter übermitteln. Es gibt außerdem noch Speicher- und SAN-spezifische Frameworks und Tools wie Veritas-SAN-Point-Control, IBM-Tivoli-Storage-Network-Manager und BMC. Diese überwachen die Speichersysteme und ermöglichen Konfigurationsänderungen. Features wie Call-Home oder Echtzeitreports gehören ebenfalls zum Funktionsumfang vieler Managementwerkzeuge dazu.
Zu den eben genannten Faktoren, die für das Design mittlerer SANs eine Rolle spielen, kommen inzwischen noch zusätzliche Herausforderungen hinzu. So stellt beispielsweise bei der DS-8000 von IBM nicht mehr die Harddisk das Bottleneck im System dar, sondern der Switch. Das bedeutet, dass sich die Leistungsfähigkeit einzelner Speichernetz-Devices im Vergleich zu anderen verschiebt und somit eine völlig neue Sichtweise auf die Gesamtarchitektur des Speichernetzwerks erforderlich ist.
Gleichzeitig wird auch in diesen Umgebungen die Virtualisierung eine immer größere Rolle spielen. Nach wie vor sieht es nämlich im Open-Systems-Bereich so aus, dass die Plattenkapazität zu mehr als der Hälfte nicht ausgelastet ist. Bei Windows-Umgebungen liegt die Auslastung bei etwa 30 Prozent, bei Unix liegt der Wert mit etwa 40 Prozent nur unwesentlich höher. Das Ziel der Unternehmen wird darin liegen, diesen Wert über Virtualisierungstechniken auf das in Mainframe-Umgebungen übliche Niveau von 70 bis 80 Prozent anzuheben.
In großen SANs – die in der Regel über mehrere Standorte verteilt sind – spielen vor allem die Übertragungstechniken eine Rolle, da sie den nötigen Datendurchsatz bereit stellen. Zum Transport der heute üblichen großen Datenmengen kommen in der Regel zwei Datenübertragungsprotokolle zum Einsatz. Zum einen das schon genannte Fibre-Channel, zum anderen Gigabit-Ethernet. Fibre-Channel bringt den Vorteil mit sich, dass er speziell zum Übertragen von Speicherdaten entwickelt wurde. Das Protokoll ermöglicht schnelle Datenzugriffe in Verbindung mit hohen Übertragungsraten. In Fibre-Channel-Netzen stellen etwa 98 Prozent der übertragenen Daten Nutzdaten dar. Die Übertragungsraten lagen früher bei einem bis zwei Gigabit pro Sekunde, inzwischen finden sich aber auch Produkte, die einen Durchsatz von vier bis zehn Gigabit unterstützen. Die unterschiedlichen Geschwindigkeitsstufen lassen sich gemischt in einem Netz einsetzen, da die Komponenten sich automatisch auf die bestmögliche Über- tragungsrate verständigen.
Gigabit-Ethernet scheint auf den ersten Blick technisch weniger für die Anforderungen in Speichernetzen geeignet zu sein. Dieses Protokoll eignet sich in erster Linie dafür, kleine Datenmengen über beliebige Strecken ans Ziel zu bringen. Der Nutzlastanteil ist auf Grund des höheren Verwaltungsaufwandes bei Ethernet kleiner als bei Fibre-Channel. Er liegt zwischen 30 und 60 Prozent des gesamten Übertragungsvolumens. Das Hauptargument für Ethernet sind aber die vergleichsweise geringen Kosten. Außerdem ist der Datendurchsatz eines Gigabit-Ethernets so hoch, dass die meisten Speicherapplikationen trotz der sonstigen Defizite problemlos mit diesem Protokoll zusammen arbeiten können. Eine besondere Bedeutung hat der Gigabit-Ethernet-Einsatz außerdem – vor allem in Verbindung mit verteilten SANs – bei der Überbrückung weiter Entfernungen, da die Reichweite von Fibre-Channel bei voller Leistung auf etwa 100 Kilometer beschränkt ist. Folglich eignet sich Ethernet hervorragend, um mehrere Fibre-Channel-SANs miteinander zu verbinden. Die Übertragung der Speicherdaten über Ethernet-Netze (Storage-over-IP) läuft über Internet-Protokolle wie iSCSI, iFCP (Internet-Fibre-Channel) und FCIP (Fibre-Channel-over-IP). iSCSI ersetzt Fibre-Channel komplett als Verbindungsmedium und Schnittstelle. Zur Datenübertragung kommt das SCSI-Protokoll zum Einsatz, dieses wird allerdings in ein erweitertes IP-Protokoll umgesetzt. iFCP ersetzt Fibre-Channel lediglich als Medium. Die beteiligten Geräte arbeiten mit FC-Schnittstellen und die Verwaltung der eingekapselten Pakete läuft über TCP. FCIP verbindet schließlich die Fibre-Channel-SAN-Systeme über einen IP-Backbone miteinander. Die Fibre-Channel-Pakete werden also durch eine IP-Verbindung getunnelt übertragen.
Der größte Vorteil, den Weitverkehrsspeichernetze mit sich bringen, ist sicher neben dem weltweit zentralen Datenpool die Disaster-Tolerance. SANs über große Entfernungen ermöglichen schnelle Restores und Business-Continuity, da sich die Daten im Bedarfsfall rasch und unkompliziert auf ein zweites SAN spiegeln lassen. Oftmals bildet auch die Infrastruktur des Zweit-Rechenzentrums einen Spiegel des lokalen SANs. Um die vorhandene Bandbreite dabei möglichst optimal auszunutzen, kommen in der Regel Wellenlängenmultiplexer und Channel-Extension-Systeme zum Einsatz. Manchmal müssen die Verantwortlichen auch zusätzliche Emulationstechniken verwenden, um Verbindungen über weite Entfernungen sicher stellen zu können.
In allen SAN-Umgebungen spielt die Datensicherheit eine zentrale Rolle. Deswegen sollten sich die Administratoren verstärkt mit dem Thema SAN-Partitionierung – zum Beispiel mit dem Ultranet-Multi-Service-Director von CNT – befassen. Diese Technik versetzt Unternehmen und Provider in die Lage, ihre Infrastruktur in einzelne SANs auseinander zu dividieren. Auf diese Weise lassen sich beispielsweise Open-Systems-Umgebungen von Mainframe-Plattformen trennen oder auch Partitionen unabhängig verwalten.
Egal wie groß die SAN-Umgebung eines Unternehmens ist, es stehen immer sinnvolle Technologien zum Realisieren eines Speichernetzes zur Verfügung. Kleine Unternehmen sollten vor allem auf die Leistungsfähigkeit des Management-Werkzeugs achten, während bei mittleren Installationen neben der Architektur selbst vor allem die Interoperabilität eine wichtige Rolle spielt.
Bei großen Umgebungen steht die Übertragungstechnologie im Mittelpunkt des Interesses. Hier müssen die Verantwortlichen die richtige Mischung finden, um für die nötige Performance zu sorgen.
Udo Kuhr, Systems Consultant, CNT