Virtualisierung von morgen

Die Schallmauer zum Petabyte-SAN

26. September 2007, 12:50 Uhr |

Wachsende Anforderungen an die Performance wie auch ständig steigende Datenvolumina stellen immer höhere Anforderungen an Storage-Netze. Ein Trugschluss wäre die Annahme, dass die kommende 4-GBit/s-Technologie von der Notwendigkeit der Virtualisierung entlastet würde.

Eine Virtualisierung auf Speichersystem-ebene hat den Vorteil, dass diese am nächsten an den Daten und somit am effizientesten ist.

Als vor wenigen Jahren Speichernetzwerke, auch Storage-Area-Network oder kurz SAN genannt, auf den Markt kamen, hatte die Kapazität der verfügbaren Disks gerade den Sprung in den zweistelligen Gigabyte-Bereich hinter sich. Mit einem SAN wurde die physikalische Punkt-zu-Punkt-Verbindung zwischen Server und Speichersystem durch ein logisches Verbindungsnetzwerk ersetzt, in dem die Speicherbereiche per Mausklick fast beliebig rangiert werden konnten. Die Freude über die dadurch möglich gewordene effiziente Nutzung der Speicherinvestition währte allerdings in der Praxis oft nicht besonders lange.

Bei wachsendem Datenvolumen und erweiterten Anforderungen an Verbindungsoptionen wurden Restriktionen der Betriebssystem-, SAN- und Speicherhersteller sichtbar, welche ein »homogenes SAN« zur Herausforderung machten und auch heute noch machen. Bei der Erweiterung des SANs konnten die getätigten Investitionen oft nur teilweise genutzt werden, da für die Einbindung neuer Komponenten gera-de die Art von Ressourcen verbraucht wurde, die diese Erweiterung gerade schaffen sollte. Praktische Beispiele hierzu sind in jedem SAN zu finden, das beispielsweise mit 8- oder 16-Port-Switches aufgebaut wurde. Beim Hinzufügen weiterer Switches werden Ports für Inter-Switch-Links (ISL) zum Datentransfer zwischen den Switches belegt. Bei Kosten von mindestens 1000 Euro pro Port fallen somit bei Anbindung beispielsweise über zwei Verbindungen rund 4000 Euro an unnötigen Kosten an. Um SANs – und die damit verbundenen Investitionen – bestmöglich nutzen zu können, wird das Thema Virtualisierung heiß diskutiert.

Um nicht in die selbe Zwickmühle wie beim Aufbau der ersten SANs zu geraten, sollen im Nachfolgenden die Möglichkeiten und die Risiken unter Betrachtung verschiedener Faktoren beschrieben und bewertet werden.

Virtualisierung ist vom herstellerübergreifenden Storage-Konsortium SNIA sinngemäß wie folgt definiert worden: Ein Vorgang der Integration von einem oder mehreren (Backend-) Diensten oder Funktionen mit zusätzlichen (Frontend-) Funktionen zu dem Zweck einer sinnvollen Abstraktion. Typischerweise verbirgt die Virtualisierung die Komplexität des Backends oder fügt neue Funktionen hinzu, beziehungsweise integriert diese unter Nutzung bestehender Backend Dienste. Oder anders ausgedrückt: Extrahierung der logischen Ansicht der Daten aus dem physikalischen Layout. SANs bieten hierzu (lediglich) die Verbindungstechnologie.

Hierzu stehen verschiedene Virtualisierungsansätze zur Verfügung, die alle Vor- und Nachteilen aufweisen.

Virtualisierung auf Server-Ebene

Der in Windows eingebaute Volume-Manager bietet Dynamic-Volumes – also logische Laufwerke, hinter denen sich mehrere physikalische Disks verbergen können – und damit eine Virtualisierung auf einfachster Ebene. Das zur Anwendung beziehungsweise zum User hin sichtbare Laufwerk kann bei Bedarf einfach erweitert werden – hier liegt eine Stärke der Virtualisierung. Viele dieser »physikalischen Disks« sind zwar in Wahrheit wiederum logische Volumes (Partitionen) – zum Beispiel eine Logical-Unit (LUN) auf einer RAID-Gruppe aus einem über das SAN angeschlossenen Speichersystem – dieses wird an dieser Stelle aber nicht näher betrachtet, da diese sich in der untersten Ebene des Servers bereits wie eine physikalische Disk darstellen. Ähnlich ist dies bei den logischen Volume-Managern (LVM) der Unix-Systeme und insbesondere in der aufstrebenden Linux-Landschaft zu finden. Für KMUs stellt dies eine kostenlose Möglichkeit der Virtualisierung dar, wenngleich die Grenzen hier schnell erreicht werden, der Server belastet wird und der benötigte Support – auf Grund der gewollten Vielfältigkeit im Linux-Bereich – von den Herstellern der Speichersysteme kaum bewältigt werden kann. Abhilfe schaffen professionelle Produkte, wie sie beispielsweise OSL-IT oder Veritas anbieten.

Mit steigendem Volumen und höheren Anforderungen an die Flexibilität wächst naturgemäß auch die Sensibilisierung für die Datensicherheit. Fast alle LVMs bieten eine Dual-Path-Funktion an, allerdings sind die wenigsten auf Midrange-Speichersysteme parametrisierbar, was zu starken Leistungseinbussen im Speichersystem führen kann.

Im Enterprise-Segment, wo viele unterschiedliche Betriebssysteme zum Einsatz kommen, sind die Lizenzkosten für die professionellen LVMs daher ein nicht zu unterschätzender Posten im Budget geworden. Enterprise-Lizenzen bieten hier zwar eine Möglichkeit der monetären Kompensation, jedoch dürfen abschließend drei wichtige Faktoren nicht außer Acht gelassen werden:

  • Kein Hersteller deckt derzeit alle (wichtigen) Betriebssysteme mit seiner LVM-Software ab.

  • Auf jedem Betriebssystem stellt sich das Management der LVM-Produkte anders dar. Das erhöht die Komplexität und widerspricht dem Gedanken der Vereinfachung durch die Virtualisierung.

  • Eine übergeordnete Volume-Manager-Instanz, die zumindest eine Server-übergreifende Ansicht der durch die Volume-Manager verwalteten Volumen zulässt, wird von der Herstellern der LVMs entweder nicht oder nur als separate Instanz (SRM) angeboten.

Engpässe im Durchsatz spielen bei der serverbasierenden Virtualisierung keine Rolle, da jeder Server autark arbeitet und somit im Gesamtkonzept der Serverlandschaft eine parallele Lastverteilung vorhanden ist. Falls es doch einmal zu Performance-Problemen kommen sollte, ist nur der einzelne Server betroffen. Dieser kann relativ unkompliziert und zu überschaubaren Kosten ersetzt beziehungsweise erweitert werden.

Virtualisierung auf SAN-Ebene

Um der Problematik der Server-basierenden Virtualisierungen zu entgehen, besann man sich auf die Idee des Speichernetzwerkes (SAN), das nicht nur eine neue Verbindungsmöglichkeit, sondern auch zusätzliche Dienste bieten sollte. Hier hat die Variante des In-band-Managements eine weite Verbreitung gefunden, die sowohl den Dienst der Virtualisierung bereitstellt, als auch die Verteilung der Daten der Server zum Speicher übernimmt. Auf dieser Schicht ist man weitgehend unbelastet von Problematiken der Kompatibilität, da die Appliance beispielsweise auf einem – sehr leistungsfähigen – Windows- oder Standard-Unix-Server abgebildet wird und der Support durch nahezu alle Hersteller gewährleistet werden kann. Die bekannten Anbieter auf diesem Segment sind Datacore und Falconstor. Die beiden Anbieter verfügen über viele unterschiedliche Angebote und können daher die jeweils optimale Lösung für unterschiedliche Bedürfnisse und Szenarien bieten.

Für größere mittelständische Unternehmen kann diese Variante der Virtualisierung eine kostengünstige Möglichkeit darstellen, um mit einer einzigen Management-Oberfläche die Virtualisierung – also Vereinfachung – zu bewerkstelligen. Dies gilt sowohl aus Sicht der Server als auch für die anzuschließenden Speichersysteme. Bei diesen sind nicht selten neben der aktuellsten Technologie noch die zwei letzten Generation zu finden, die zwar noch ihre Dienste tun, aber – für sich alleine betrachtet – nicht mehr die zeitgemäße Funktionalität bieten. Bei der Planung einer Virtualisierung im SAN sollte die Anzahl der Ports und die für die Erweiterung gegebenenfalls notwendigen ISLs genau betrachtet werden. Eine SAN-Appliance lässt sich zwar bereits mit zwei Ports betreiben, der Engpass wäre damit aber schon klar vordefiniert.

Bei den seit kurzem angebotenen »Virtualisierungs-Blades« von IBM und Veritas, die als Einschübe für größere SAN-Switches beziehungsweise Direktoren von Cisco in Betracht kommen, handelt es sich im Prinzip um die selbe Architektur wie bei einer In-band-SAN-Appliance. Abgesehen von den Unterschieden in der Prozessor-Architektur greift diese Variante direkt auf die interne Backplane zu. Dadurch entfallen hier die potentiellen Engpässe durch die ISL-Verbindungen im SAN, allerdings auf Kosten eines kompletten Einschubes, der 16 oder mehr zusätzliche SAN-Ports bieten könnte.

SAN-Appliances bieten zusätzliche Dienste, wie Snapshots, die unabhängig vom Betriebssystem beziehungsweise Speichersystem sind. Da die zentrale Schaltstelle SAN-Appliance aber letztlich ein Server ist, der ausfallen kann, muss hier besonders auf die Redundanz geachtet werden. Letztlich wären sonst alle Bemühungen von Dual-Path am Server und Dual-Controller am Speichersystem umsonst, wenn dazwischen ein Single-Point-of-Failure (SPOF) installiert würde. Durch ihre Architektur beziehungsweise der Anordnung im direkten Datenfluss zwischen Server und Speichersystem haben SAN-Aplliances eine natürliche Grenze. Diesem Umstand muss eine besondere Bedeutung zugemessen werden, da mehrere, nebeneinander existierende Appliances im Netzwerk die Komplexität der Speicherlandschaft erhöhen.

Virtualisierung auf Speicher-Ebene

Die Virtualisierung auf Speicher-Ebene hatte in homogenen Speicherlandschaften große Vorteile in Bezug auf Performance und Bedienbarkeit. Auf Grund der heutigen Heterogenität dieser Umgebungen – die durch »two-vendor«-Strategien oder »lowest-price«-Entscheidungen hervorgerufen wurden – ist dieser vermeintliche Kostenvorteil jedoch inzwischen zum Kostentreiber geworden. Dies lenkte manchen IT-Manager zur Investition in die zuvor beschriebene Virtualisierung auf SAN-Ebene. Bis zu einigen Terabyte Datenvolumen war dies auch ein gangbarer Weg. Unternehmen im Enterprise-Segment standen auf Grund des Volumens ab zehnstelligen Terabyte-Voumina beziehungsweise der Anforderungen auf Bedienbarkeit und der Realisierung von abgestuften Speicherkonzepten inklusive der Integration von vorhandenen Investitionen vor einer unlösbaren Aufgabe.

Eine Virtualisierung auf Speichersystemebene hat den Vorteil, dass diese am nächsten an den Daten und somit am effizientesten ist. Sie kann mehrere unabhängige Betriebssysteme versorgen, ruft keine Verzögerungen durch zusätzliche Busse beziehungsweise Operating-System-Layer hervor und ist in der Architektur redundant ausgelegt. Zudem können die Sicherheitsdefinitionen direkt am zu schützenden Objekt vorgenommen werden.

Der Nachteil dieses Ansatzes ist, dass diese Virtualisierungsebene nicht über mehrere unterschiedliche Speichersysteme ausgeweitet werden kann, da die Virtualisierungseigenschaften und deren Steuerung je nach System unterschiedlich sind. Daher kann nicht der gesamte Speicher als »Pool« dargestellt werden und eine einheitliche Business-Continuity-Strategy ist somit nicht durchführbar.

Als erster Hersteller bietet Hitachi Data Systems mit der »TagmaStore Universal-Storage-Platform« (USP) für dieses Problem eine Lösung an. Die Tagmastore-USP stellt eine zentrale Schaltstelle für die Integration heterogener Speichersysteme dar und ist damit ein Novum im Vergleich zu den sonstigen Ankündigungen im Markt, die lediglich »größer und schneller« als das Vorgängermodell sind. Dadurch ermöglicht Tagmastore-USP die Virtualisierung aller Speichervolumina und die Vereinheitlichung aller Storage-Prozesse – beispielsweise die Steuerung von Spiegelungen für Business-Continuity – für die am Markt vorhandenen Speichersysteme. Tagmastore-USP verhält sich gegenüber den zu virtualisierenden Speichersystemen wie ein Standard-Windows-Server – somit ist auch das Thema der Kompatibilität bereits im Ansatz gelöst, weil kein Hersteller eines Speichersystems ernsthaft hierzu eine Kompatibilitätszusage verweigern kann. Eine einzige USP ist in der größten Aufbaustufe in der Lage, bis zu 32 Petabyte in einem einzigen SAN-Pool zu virtualisieren. In Anbetracht dieser gewaltigen Dimensionen fällt es fast nicht ins Gewicht, dass Tagmastore-USP satte 330 Terabyte an eigener, interner Speicherkapazität zur Verfügung stellen kann. Ausreichende Verbindungen sind über bis zu 192 FC-, 64 ESCON- oder 48 FICON-Ports sichergestellt.

Ausblick für das Jahr 2005

Die 4-GBit/s-FC-Technologie steht vor der Einführung. Diese kann helfen, die Anzahl der potentiell notwendigen neuen Verbindungen – für das weiter wachsende Speichervolumen – zu verringern. Ein Trugschluss wäre allerdings die Annahme, dass die 4-GBit/s-Technologie von der Notwendigkeit der Virtualisierung entlastet würde. Die Virtualisierung wird für die Bündelung der Server-Datenströme um so intensiver benötigt, da ein Großteil der heute vorhandenen Server – auf Grund der »langsamen« internen Busse – die teuren 4-GBit/s-Ports der Speichersysteme und der SAN Komponenten nicht, beziehungsweise nur ineffizient nutzen könnte. Steffen Bartsch, Manager Solution Strategy, Hitachi Data Systems


Jetzt kostenfreie Newsletter bestellen!

Matchmaker+