Viele Storage-Hersteller werben damit, dass ihre Midrange-Lösungen die gleichen Funktionen bieten wie Enterprise-Systeme. LANline hat untersucht, mit welchen Techniken aktuelle Midrange-Speichersysteme ein leistungsfähiges und effizientes Storage-Management ermöglichen. Mit von der Partie sind die sechs Hersteller Dell, EMC, Hitachi Data Systems, Hewlett-Packard und IBM. Bei genauerer Betrachtung zeigen sich neben vielen Gemeinsamkeiten auch durchaus unterschiedliche Philosophien.Für die Anschaffung eines neuen Midrange-Speichersystems sind Investitionen im sechsstelligen Bereich nicht ungewöhnlich. Die IT-Verantwortlichen sollten deshalb vor einer Kaufentscheidung genau untersuchen, ob das ins Auge gefasste Produkt die Anforderungen des Unternehmens erfüllen kann. Zu betrachten ist unter anderem, ob sich Speicherkapazität und I/O-Performance (Input/Output) ausreichend skalieren lassen, um das für die kommenden Jahre prognostizierte Daten- und Leistungswachstum abzudecken. Unterschiede gibt es auch bei der Implementierung von Unified-Storage-Lösungen (NAS/SAN). Einige Hersteller bieten zudem eine Storage-Virtualisierung an, mit der sich Speichersysteme von anderen Herstellern in einen zentralen Storage-Pool integrieren lassen. Skalierbarkeit von Kapazität und Performance Bis vor wenigen Jahren war die Ausbaufähigkeit von Midrange-Speicher-Arrays in der Regel darauf beschränkt, zwei Speichersysteme in einem Verbund betreiben zu können. Zum Schutz vor einem Desaster lassen sich die Daten zwischen den beiden Systemen synchron spiegeln oder asynchron replizieren. Mittlerweile bieten immer mehr Hersteller Arrays an, bei denen sich mehrere Storage Controller zu einem Cluster- oder Grid-Verbund zusammenschalten lassen. Dadurch kann ein Gesamtsystem deutlich mehr Speicherkapazität bereitstellen. Auch die für Datenübertragungen nutzbare Gesamtbandbreite steigt mit der Zahl der Storage Controller. So hat zum Beispiel Netapp sein Storage-Betriebssystem Data Ontap clusterfähig gemacht. Mit SAN-Storage (iSCSI oder FC) lassen sich bis zu acht Storage Controller als Cluster betreiben, im NAS-Modus sind pro Verbund bis zu 24 Nodes möglich. Clustered Data Ontap 8 lässt sich auf allen Modellen der Netapp-FAS-Familie einsetzen. Als kostengünstige Einstiegslösung ist das FAS 2200 auch als "Single Node" oder als 2-Node-Switchless-Cluster erhältlich. Die 3Par-Storeserv-7000-Systeme von HP wiederum unterstützen den Betrieb von bis zu vier Controller Nodes in einem "Meshed Cluster". Bei den Highend-Systemen der 10000-Familie lassen sich bis zu acht Nodes zu einem Verbund zusammenschalten. HP hat zudem mit den Storvirtual-Systemen eine Scale-out-Speicherlösung für iSCSI- und FC-Umgebungen im Portfolio, die sich sehr gut skalieren lässt. Ein Storvirtual-Grid kann bis zu 32 Controller Nodes aufnehmen. Das so genannte "Network RAID" fasst alle Storage-Ressourcen in einem Speicher-Pool zusammen, wodurch sich die Gesamtkapazität und die Performance des Grid-Verbunds von jedem einzelnen Cluster-Node nutzen lassen. Für den Einstiegsbereich und den kleineren Midrange-Bereich hat HP nach wie vor die EVA-Speichersysteme im Portfolio. IBM bietet für den Midrange-Bereich die Storwize-Familie an. Die Modelle der 3000-Reihe sind in der kleinsten Konfiguration mit zwölf Festplatten erhältlich. Beim Flaggschiffprodukt Storwize V7000 lassen sich bis zu vier Systeme mit acht Controllern zu einem Verbund zusammenschalten. In Kürze wird die V5000 hinzukommen, um die Lücke zwischen den 3000- und 7000-Systemen zu schließen. Bei den V-Modellen hat IBM die Storage-Virtualisierung des "SAN Volume Controllers" (SVC) direkt in das Storage-Betriebssystem integriert. Die V-Reihe ist dadurch in der Lage, Speichersysteme anderer Hersteller in einen gemeinsamen Speicher-Pool einzubinden und zentral zu verwalten. Mit der XIV-Familie bietet IBM auch für den Highend-Bereich eine Grid-basierende Lösung an. Hitachi Data Systems (HDS) deckt den Midrange-Markt mit den Speichersystemen HUS und HUS-VM ab. HUS steht für Hitachi Unified Storage. In das VM-Modell hat HDS die Speicher-Management- und Virtualisierungsfunktionen des Highend-Systems VSP (Virtual Storage Platform) integriert. Dadurch kann HUS-VM auch Speichersysteme von anderen Herstellern in einen zentralen Pool aufnehmen und verwalten. Ein HUS-Cluster besteht aus zwei HUS-Systemen mit insgesamt vier Storage Controllern. Die VSP unterstützt auch Cluster mit drei Systemen. Das kleinste HUS-System beginnt bei einer Ausstattung mit einem Controller und fünf Festplatten. EMC bietet für den Midrange-Markt die Unified-Storage-Systeme der VNX-Familie an. Anfang September 2013 hat EMC eine neue Generation der VNX-Systeme vorgestellt. Die Arrays erreichen durch eine neue "MCx"-Technik ("Multi-Core Optimization" mit bis zu 32 CPU-Cores) eine deutliche Performance-Steigerung gegenüber der Vorgängergeneration. Die VNXe-Serie ist dabei als Einstiegslösung für kleinere Unternehmen positioniert und stellt Speicher per iSCSI oder NAS bereit. Die VNX-Modelle unterstützen zusätzlich FC und FCoE für die SAN-Anbindung. Sie verfügen über zwei Storage Controller für Block Storage und bis zu acht "X-Blades" für NAS-Zugriffe. Eine zentrale Verwaltung von mehreren VNX-Systemen ist über die von EMC entwickelte softwaredefinierte Speicherplattform "Vipr" möglich. Auf dieses Thema "Software-Defined Storage" wird der Beitrag noch gesondert eingehen. Dell hat sich durch die Zukäufe von Compellent und Equallogic als Speichersystemanbieter im Midrange-Markt positioniert. Die Modelle der Equallogic-Familie stellen ihre Speicherkapazitäten per iSCSI bereit. Mehrere Systeme lassen sich zu einem Grid-Verbund zusammenschalten, wobei die Konfiguration weitgehend automatisch erfolgt. Die Compellent-Systeme unterstützen zusätzlich FC und FCoE. Sie führen ein automatisches so genanntes Sub-LUN-Level-Tiering über alle Laufwerke des Systems durch. Die Kriterien für das Tiering legt der Administrator fest. Datenbereiche mit hohen I/O-Anforderungen schreibt das System automatisch auf die schnellsten vorhandenen Speichermedien. Falls ausschließlich Festplatten vorhanden sind, werden diese Datenbereiche auf die äußeren Ränder der Platte geschrieben, da dort die Zugriffsgeschwindigkeit am höchsten ist. Integration von SSDs und Flash-Modulen Für Anwendungen mit sehr hohen Anforderungen an die IOPS-Performance (Input/Output Operations Per Second) wie zum Beispiel Server-Virtualisierung, VDI-Lösungen, OLTP-Systeme (Online Transaction Processing), SAP Hana oder Hadoop reicht die Geschwindigkeit von schnellen Festplatten-Arrays oft nicht mehr aus. Deshalb bieten die Hersteller für ihre Midrange-Systeme inzwischen auch SSDs (Solid State Drives) als Option an. Beim Einsatz von SSDs spielen die auf der Backplane verfügbare Übertragungsbandbreite sowie die Latenz eine wichtige Rolle. Da die I/O-Performance einer SSD diejenige einer Festplatte um ein Vielfaches übersteigt, wird ein ursprünglich für Festplatten entwickeltes Speichersystem schnell an seine Grenzen kommen, wenn es mit einer großen Zahl an SSDs bestückt ist. Einige Anbieter haben deshalb spezielle "All Flash"-Arrays entwickelt, die ausschließlich mit SSDs oder Flash-Karten bestückt und für eine hohe I/O-Leistung optimiert sind. Der Einsatz von Flash-Speicher erhöht nicht nur die I/O-Performance, sondern senkt auch den Stromverbrauch und die Wärmeabgabe. Zu nennen sind in dieser Hinsicht beispielsweise EMC mit dem "SSD-Array VNX-F", HP mit dem SSD-Speichersystem "3Par Storeserv 7450", IBM mit dem "Flashsystem 820" oder Netapp mit dem "EF540 Flash Array". HDS hat für seine Midrange- und Highend-Speichersysteme eine spezielle Flash-Karte entwickelt, die direkt mit der Backplane verbunden ist und laut Hersteller eine höhere Performance bietet als SSDs oder PCI-Express-basierende Flash-Karten. Es gibt auch Anbieter, die bei reinen SSD-Arrays mit spezialisierten Storage-Herstellern kooperieren. Fujitsu zum Beispiel bietet seinen Kunden die "All Flash"-Systeme von Violin Memory an. Ein weiterer aktueller Trend ist die Integration des in Windows-, Linux- oder Unix-Servern verbauten Flash-Speichers in ein übergreifendes Cache-Management, das von den Storage Controllern des Speichersystems gesteuert wird. Mehrere Storage-Hersteller bieten dafür bereits Lösungen an. Automatisiertes Storage Tiering und QoS Um den schnellen und vergleichsweise teuren Flash-Speicher in hybriden Systemen möglichst effizient nutzen zu können setzen die meisten Hersteller ein automatisiertes Storage Tiering ein. Dieses sorgt dafür, dass Datenbereiche mit hohen I/O-Anforderungen automatisch auf schnelle Medien verlagert werden. Wenn die I/O-Last wieder sinkt, verlagert das Tiering die Daten zurück auf langsamere Bereiche des Speichersystems. Durch das Tiering lässt sich auch mit vergleichsweise wenig Flash-Kapazität eine Beschleunigung von Anwendungen erreichen. Die meisten der in diesem Beitrag betrachteten Hersteller unterstützen das bereits erwähnte Sub-LUN-Level-Tiering. Dieses verschiebt nur diejenigen Teilbereiche einer LUN auf ein schnelleres Tier, die eine hohe I/O-Last aufweisen. Bei EMC sind beim "Fully Automated Storage Tiering" (FAST) keine manuellen Eingriffe möglich. HDS und HP bieten hingegen die Möglichkeit, die Tiering-Konfiguration anzupassen. Netapp unterstützt ein automatisches Tiering nur auf LUN-Ebene, das heißt, es wird immer eine komplette LUN zwischen den Tiers verschoben. Dell hat im Sommer 2013 für die Compellent-Familie ein "All Flash"-Array vorgestellt, das ein automatisches Tiering zwischen schnellen kleinen SSDs und langsameren SSDs mit hoher Speicherkapazität durchführt. Einige Hersteller sind zudem in der Lage, pro LUN eine Quality of Service (QoS) für die mindestens verfügbare I/O-Performance und Übertragungsbandbreite zu gewährleisten. Speicherkapazitäten effizient nutzen Dass sich mit "Thin Provisioning" die vorhandene Speicherkapazität deutlich besser ausnutzen lässt, haben mittlerweile alle Hersteller erkannt und ihre Systeme entsprechend ausgestattet. Wenn Thin Provisioning aktiviert ist, belegt jede LUN nur so viel Platz, wie tatsächlich an Daten geschrieben wurde. Hat ein Server zum Beispiel auf einer 500 GByte großen LUN bislang 300 GByte Daten geschrieben, sind auf dem Speichersystem auch nur 300 GByte belegt. Die für eine bestimmte Datenmenge tatsächlich benötigte Speicherkapazität lässt sich durch Komprimierung und Deduplizierung reduzieren. Netapp war einer der ersten Hersteller, der eine nachgelagerte Deduplizierung auf produktiv genutzten Speichersystemen eingeführt hat. Besonders hohe Einsparungen lassen sich dabei in Umgebungen erzielen, in denen größere Datenbestände weitgehend identisch sind. Dazu zählen zum Beispiel virtualisierte Server, weil alle virtuellen Instanzen die gleichen Betriebssystemdateien verwenden. Dell, EMC und HDS haben in ihre Speichersysteme inzwischen ebenfalls eine Deduplizierung integriert. IBM setzt auf eine leistungsfähige Datenkomprimierung, die ähnliche Reduktionsraten ermöglichen soll wie eine Deduplizierung. HP vertritt nach wie vor den Standpunkt, dass der Einsatz von Deduplizierung oder Komprimierung bei primären Speichersystemen aus Performance-Gründen nicht sinnvoll sei. Deshalb bietet HP diese Techniken nur für seine Backup-Produkte an. Die meisten Hersteller haben ihre Speichersysteme mittlerweile so angepasst, dass sie sich gut in die Server-Virtualisierungsplattformen von VMware, Microsoft und Citrix integrieren. Eine besonders hohe Flexibilität bieten Speichersysteme, die über eine integrierte Storage-Virtualisierung verfügen. Dadurch sind sie in der Lage, auch Speichersysteme von anderen Herstellern in den zentralen Storage Pool aufzunehmen und zentral zu verwalten. IBM hat bei den Storwize-V-Modellen seine SVC-Virtualisierungslösung direkt in das Betriebssystem integriert. Das HUS-VM-System von HDS verfügt ebenfalls über Storage Controller, die Speichersysteme anderer Hersteller virtualisieren und zentral verwalten können. Netapp hat mit den V-Modellen spezielle Virtualisierungs-Appliances im Portfolio, die Speichersysteme anderer Hersteller integrieren können. Auch EMC kann die VNX-Systeme mit der hauseigenen Vplex-Lösung in eine übergreifende Storage-Virtualisierung einbinden. Auf die neue, bereits angesprochene Vipr-Lösung von EMC geht der Beitrag noch speziell ein. Zu einem der ersten Anbieter von Unified Storage zählte Netapp. Dessen FAS-Systeme verfügen schon seit vielen Jahren über Multiprotokoll-Support. Dadurch kann ein Speichersystem gleichzeitig Block Storage per FC oder iSCSI bereitstellen und als NAS-Filer agieren, der sich per CIFS oder NFS als Dateiablage nutzen lässt. Einige Hersteller bieten auch Einstiegssysteme als Unified Storage an, die nur iSCSI und NAS unterstützen. In größeren Umgebungen kann es durchaus Gründe dafür geben, Block Storage und File-Services über unterschiedliche Speichersysteme bereitzustellen: Besonders das Troubleshooting bei Performance-Problemen kann recht komplex werden, wenn sich Datenbanken, Web-Server, virtuelle Server und File-Service-Zugriffe die Ressourcen desselben Storage Controllers teilen müssen. Neben Netapp bietet auch EMC mit der VNX-Familie Unified-Storage-Lösungen mit Storage Controllern an, die sowohl Block- als auch File-Protokolle unterstützen. HP bietet für die 3Par-Systeme ein NAS-Gateway an, das auf HP-Servern mit Windows Storage Server 2012 basiert. Dell hat für die Compellent-Systeme ebenfalls ein NAS-Gateway im Portfolio. HDS kann NAS-File-Services mit dem "Hnas 4000 Gateway" bereitstellen. Für NAS-Umgebungen mit sehr hohen Performance-Anforderungen bietet EMC mit den Isilon-Speichersystemen ein Scale-out NAS mit integrierter Deduplizierung an. IBM stellt für diesen Markt mit Sonas ("Scale Out Network Attached Storage") eine leistungsfähige Lösung bereit. Datensicherheit, Backup und Recovery Midrange-Storage-Systeme müssen eine sehr hohe Datenverfügbarkeit garantieren. Deshalb ist die Hardware durchgängig redundant ausgelegt. Vor einem Festplattenausfall sind die Systeme durch RAID-Konfigurationen oder andere Mechanismen für eine redundante Datenhaltung geschützt. Für besonders kritische Daten lässt sich die Verfügbarkeit durch eine synchrone oder asynchrone Spiegelung oder durch eine Replikation auf ein zweites Speichersystem an einem anderen Standort erhöhen. Eine synchrone Spiegelung bietet allerdings keinen Schutz vor logischen Fehlern, da sie Änderungen auf der primären LUN sofort auf die sekundäre LUN überträgt. Deshalb empfiehlt es sich, für kritische Daten zusätzlich Snapshots einzusetzen, die zum Beispiel jede Nacht oder in noch kürzeren Abständen automatisch erzeugt werden. Software-Defined Storage Der Hype um Software-Defined Networking hat mittlerweile auch die Storage-Branche erfasst, die mit "Software-Defined Storage" (SDS) die Bereitstellung von Speicherressourcen vereinfachen will. Netapp zählte zu den ersten, die Unified Storage auf der Basis eines Softwarebetriebssystems angeboten haben, das nicht auf speziellen Storage Controllern als Microcode läuft, sondern für Standard-Server-Hardware programmiert ist. Mit dem aktuellen "Clustered Data Ontap 8.2" hat Netapp virtuelle Storage-Server eingeführt, die sich im laufenden Betrieb unterbrechungsfrei auf einen anderen Storage Controller migrieren lassen. Dadurch sind keine Down-Zeiten mehr erforderlich. Auch Dell hat sich SDS auf die Fahne geschrieben und verwendet für das "Storage Center"-Betriebssystem der Compellent-Arrays Standard-Server als Hardwarebasis. Dadurch lassen sich neue Funktionen für das Storage-Management relativ einfach implementieren. HP entwickelt ebenfalls SDS-Lösungen: Das Storvirtual-Speichersystem ist als virtuelle Appliance für VMware, Hpyer-V und demnächst auch für KVM erhältlich. Die Entwickler von IBM setzen bei SDS auf eine Openstack-basierende Control Plane. Für die Data Plane ist aus Sicht von IBM immer eine physische Basis nötig, die ein spezielles Storage-Betriebssystem steuert. Denn auch künftig würden High-Performance-Anwendungen andere Storage-Funktionen benötigen als etwa Speichersysteme mit Kapazitäten im PByte-Bereich. EMC hat - wie schon erwähnt - mit "Vipr" eine neue "Software-Defined Storage"-Plattform vorgestellt. Vipr ist in der Lage, sowohl die Control Plane mit der Speicherinfrastruktur als auch die Data Plane mit den Daten zu verwalten und die Bereitstellung von Speicherkapazitäten zu automatisieren. Einige Hersteller wie zum Beispiel HDS nehmen an den Diskussionen um SDS bewusst nicht teil. Ein Grund für diese Zurückhaltung ist die Einschätzung, dass softwarebasierende Storage-Lösungen immer langsamer sein werden als mit spezialisierter Hardware ausgerüstete Systeme. Der Autor auf LANline.de: chjlange