Als Ressource zur Fabric-übergreifenden Virtualisierung kommen in den neuen »intelligenten« Switching-Komponenten hochleistungsfähige ASICs, so genannte Storage-Prozessoren zum Einsatz.
Die ideale Virtualisierungs-Lösung soll ein zentrales Management unterschiedlicher Plattformen, Topologien und Protokolle unterstützen.
Bei den IT-Verantwortlichen in den Unternehmen herrscht Einigkeit darüber, dass sich die wachsenden Datenaufkommen, die dafür nötigen Speicherkapazitäten und die zunehmende Komplexität der Netzwerke nur durch bessere SAN-Management-Tools in den Griff bekommen lassen. Auch die wachsenden Risiken sowie die ausufernden Managementkosten veranlassen zahlreiche Unternehmen, über eine herstellerunabhängige Vereinheitlichung des Storage-Managements nachzudenken. Somit ist die Infrastruktur-Software für viele IT-Verantwortliche zu einem Kernthema geworden. Zum einen geht es dabei um SAN-Mangement-Tools, die das Speichernetzwerk virtualisieren. Zum anderen geht es um Lösungen, die eine Storage-Virtualisierung ermöglichen. Entsprechende Tools bieten inzwischen die meisten großen Storage-Hersteller und viele Software-Entwickler an.
Zu den Storage-Aufgaben, die mit den heute gängigen Techniken der Virtualisierung von Speichernetzen bereits realisiert werden können, zählen das Host-basierte Volume-Management, die Datenreplikation über homogene Plattformen hinweg, Snapshots und die Online-Datenmigration. Aber auch bei anderen Routinen oder Funktionalitäten wie dem LAN-freien Backup, der hierarchischen Speicherzuteilung oder der Tape-Virtualisierung liegen die Vorteile eines zentralen Managements auf der Hand.
Für das Management und die Überwachung einer heterogenen Speicherinfrastruktur steht mit den neuen Releases des Sanavigator eine Software-Lösung zur Verfügung, die sich auch in deutschen Industrieunternehmen, Banken und Versicherungen immer größerer Beliebtheit erfreut. Die Software bietet ein ausgereiftes Inventory, das sämtliche unterstützten Komponenten im SAN erfasst und detailliert auflistet, ein Performance-Monitoring, ein kundenspezifisch konfigurierbares GUI, ein Planungs-Tool, Multi-Vendor-Zoning und eine Policy-basierte Automatisierung.
Statt mit Excel oder Visio-Anwendungen erfolgt das Management heterogener SANs mit dieser Software von einer einzigen, zentralen Konsole per Mausklick aus. »Der Anwender braucht schließlich nicht nur klar visualisierte Informationen über die Ressourcen und Vorgänge in seinem SAN. Die Management-Software muss es ihm auch ermöglichen, diese Informationen möglichst einfach in Aktionen umsetzen zu können. Viele andere Tools ermöglichen dem Administrator jedoch nur eine beschränkte Kontrolle und Visualisierung und sie erledigen die anfallenden Aufgaben häufig noch in mühevoller Handarbeit«, erklärt Georg Bartz, Vice President of Sales and Services EMEA bei McData.
Zudem verfolgt der Hersteller eine konsequente API-Strategie, um eine reibungslose Funktionalität des Sanavigator mit möglichst vielen anderen Produkten, allen voran denen der wichtigsten OEMs und Partner IBM, EMC, HDS und HPQ sowie Storagetek, Cisco und Dell, aber auch denen des Wettbewerbs zu gewährleisten.
»Sanavigator ist ein Tool, das der Virtualisierung des Netzwerks selbst dient, so dass es aus Anwendersicht als ein einfach abrufbarer Service funktioniert und geldwerte Leistungen erbringt. In diesem Sinne haben wir für die nächsten ein bis zwei Jahre vor, unsere Software weiter in Richtung eines umfassenden Asset-Managements zu rüsten«, so Georg Bartz. »Der Fokus liegt dabei auf dem automatischen Ressourcen-Management (ARM).« Und zu einem intelligenten Management der Storage-Ressourcen (SRM) gehöre auch eine Lösung für die Storage-Virtualisierung.
Storage-Virtualisierung
Die Virtualisierung der unternehmensweit verfügbaren Storage-Ressourcen ist seit einiger Zeit erklärtes Ziel aller wichtigen Storage-Hersteller sowie vieler spezialisierter Software-Anbieter. Die Storage-Virtualisierung, mit der sich alle vorhandenen Speicherkapazitäten wie ein einziger Pool behandeln lassen, soll es ermöglichen, vorhandene Storage-Ressourcen besser auszunutzen und das Management der selben erheblich zu vereinfachen.
Die »ideale« Virtualisierungs-Lösung soll ein zentrales Management unterschiedlicher Speicherplattformen, Netzwerktopologien und Netzwerkprotokolle wie etwa Fibre-Channel, FICON, iSCSI oder iFCP unterstützen. Sie sollte aber nicht nur multiprotokollfähig sein, sondern auch offen für Hard- und Software-Produkte der verschiedensten Anbieter. Weiterhin wird von einer solchen Software ein hoher Grad an »Intelligenz« gefordert, so dass sich zumindest die Standardaufgaben in den immer komplexeren Speichernetzwerken automatisieren und alle administrativen Herausforderungen wie Datenspiegelungen über heterogene Storage-Systeme hinweg ohne Probleme lösen lassen.
Bei der Storage-Virtualisierung verfolgen viele Switch-Hersteller den Ansatz, die Virtualisierungs-Applikation in der Fabric anzusiedeln und zu beschleunigen. Gegenüber dem Einsatz externer Virtualisierungs-Appliances hat dieser Ansatz den Vorteil, dass er mit erheblich weniger Komplexität im SAN verbunden ist und in den Switches keine »Datenstaus« wie zum Beispiel in externen Servern entstehen können.
Die Plattform für eine Fabric-basierte Storage-Virtualisierung muss eine ganze Reihe an Anforderungen erfüllen. Erstens darf sie die Performance im Netzwerk nicht beeinträchtigen. Zweitens muss sie skalierbar sein – von einfachen, kleinen SANs bis zu hoch komplexen Speichernetzwerken in zentralen Rechenzentren mit Petabytes an gemanagtem Storage. Dabei muss sie, um den Anforderungen der Anwender an Virtualisierung zu genügen und das Management entsprechend zu vereinfachen, die multiplen Systeme als ein einziges erscheinen lassen. Und drittens muss sie Hard- und Software-Applikationen der verschiedensten Anbieter entsprechend unterstützen.
Den auf Server-Technologien basierenden Geräten der ersten Generation ist es nie gelungen, diese Anforderungen zu erfüllen. Zumeist verfügen sie einfach über zu wenig Ports, so dass in größeren SANs für eine ausreichende Connectivity und stete Datenflüsse ein enormer Hardware- und Verkabelungsaufwand betrieben werden muss.
In größeren SANs ist es deshalb sicher sinnvoller, so genannte intelligente Switching-Plattformen mit eigens entwickelten, speziellen Storage-Prozessoren zu implementieren. Je weniger Equipment in einer solchen Infrastruktur zwischen Servern und Storage eingesetzt werden muss, desto geringer der Management-Aufwand und die Fehleranfälligkeit des Gesamtsystems. Switches der Direktoren-Klasse, die über diese Storage-Prozessoren verfügen, erlauben dem Anwender außerdem sehr flexible Reaktionen auf steigende Anforderungen.
Im Gegensatz zu Herstellern anderer Virtualisierungs-Geräte verfolgt McData bei der Storage-Virtualisierung den Ansatz, in seinen Switches und Direktoren den Datenpfad, den so genannten Fast-Path, strikt vom Control-Path der Steuerungssoftware zu trennen. Dadurch ist gewährleistet, dass die Anforderungen der Virtualisierungs-Anwendungen durch unterschiedliche Server-Plattformen abgedeckt werden können. Der Control-Path fungiert hier wie ein Service-Prozessor: Wenn die Applikation zur Storage-Virtualisierung ihre Steuerinformationen vom Server auf den Storage-Prozessor der Switches oder Direktoren übertragen hat, tritt er in den Hintergrund, und der Fast-Path arbeitet alleine weiter. Die Installation redundanter Fast-Path-Prozessoren erhöht die Ausfallsicherheit. Eine solchermaßen verteilte Architektur ermöglicht zudem eine Skalierbarkeit von kleinen zu hohen Portzahlen. Dabei bleibt die eigentliche Storage-Virtualisierungs-Applikation immer einheitlich.
Standardisierte APIs werden es jedem Software-Anbieter oder Storage-Hersteller erlauben, ihre Software an die Switch-basierte Plattform anzubinden und ausreichende Performance vorzufinden. Die Frage ist, ob der Switch-Hersteller seinen OEM-Partnern und anderen Software-Herstellern dafür eine einheitliche Programmierschnittstelle (API) für ihre Produkte zur Verfügung stellt. Denn nur dann können die Partner alle ihre Anwendungen auf der gleichen Schnittstelle entwickeln, unabhängig davon, welches Gerät sich tatsächlich in der Fabric befindet.
Dem Anwender bietet die Fabric-basierte Lösung den Vorteil, dass er sich diejenigen Ports auswählen kann, die er virtualisieren will. Dies gilt gleichermaßen für Switches und Direktoren. Wenn er nicht zwangsläufig jeden Port virtualisieren muss, erlaubt ihm das flexible Erweiterungen und bedarfsgerechte Investitionen.
Wenn ein Direktor über einen modularen Aufbau verfügt, ist es grundsätzlich möglich, zukünftige Technologien und erweiterte Funktionalitäten zur Verfügung zu stellen, ohne dass die Hardware-Basis ausgetauscht werden muss. Beispielsweise sieht die Hardware-Roadmap von McData für die kommenden Jahre die Entwicklung von 10-GBit/s-, IP- und iFCP-Blades vor. Laut Bartz werden in den nächsten Monaten auch die für die Virtualisierung notwendigen Storage-Prozessoren in den Intrepid-Direktoren zum Einsatz kommen.
Diese intelligenten Prozessoren stammen von der Chipschmiede Aarohi, an der sich McData kürzlich beteiligt hat. Dass sich damit Virtualisierungslösungen realisieren lassen, zeigen erste Testreihen mit dem Sphereon-4500-Fabric-Switch und einer externen Steuerungssoftware. Die Resultate sind eine verbesserte Storage-Ausnutzung, ein zentralisiertes Ressourcen-Management sowie eine hierarchische Speicherzuteilung in heterogenen Umgebungen. Unter anderem fungierte die Software auch als Volume-Management-Software und ermöglichte zentrale Datenreplikations-Funktionalitäten in einem gemischten Storage-Pool. In weiteren Tests waren auch Funktionalitäten wie Snapshots, Datenmigration und Backups über die heterogenen Storage-Subsysteme realisierbar. In den kommenden Monaten will der Switch-Hersteller im Rahmen eines Software Developer-Programms eine entsprechende Kleinserie an Switches mit einem Software-Developer-Kit an die Software-Entwickler seiner OEMs und anderer Partner ausliefern. Das soll es allen Partnern ermöglichen, Anwendungen für die Storage-Virtualisierung zu programmieren. Rolf D. Richter, freier Journalist in Augsburg