Neue Techniken wirbeln den Storage-Markt kräftig durcheinander. All-Flash-Systeme werden als der künftige Standardspeicher propagiert, Hybridlösungen bereits als Auslaufmodell bezeichnet. Hinzu kommt Software-Defined Storage im Gewand hyperkonvergenter Systeme, die den klassischen Storage Arrays das Grab schaufeln wollen. Der Beitrag vergleicht die Vor- und Nachteile der unterschiedlichen Konzepte.
Der Markt für Speicherlösungen befindet sich in einem gewaltigen Umbruch, der maßgeblich von zwei Faktoren geprägt ist. So hat erstens der Siegeszug von Solid-State Drives (SSDs) eine ganze Reihe von Start-up-Unternehmen hervorgebracht, die mit ihren für SSDs optimierten All-Flash- oder Hybrid-Arrays den Anbietern traditioneller Speichersysteme Marktanteile streitig machen. Letztere reagieren darauf zum einen, indem sie ihre vorhandenen Storage-Systeme in Teilbereichen oder sogar komplett mit SSDs bestücken. Zum anderen haben bereits mehrere große Storage-Hersteller All-Flash Start-ups übernommen, um in diesem Marktsegment sofort präsent zu sein und nicht erst langwierige Eigenentwicklungen abzuwarten.
Der zweite große Umbruchfaktor sind die Anbieter von Software-Defined-Storage-Lösungen (SDS), die sowohl hinsichtlich ihrer Anzahl als auch bei den Marktanteilen deutlich zulegen konnten. Sie setzen traditionelle Hersteller von Storage-Systemen wie Dell/EMC, Fujitsu, HDS, HPE, IBM oder Netapp immer stärker unter Druck. Von der stärkeren SDS-Nachfrage profitieren einerseits Anbieter wie Datacore oder Falconstor, die bereits seit vielen Jahren eine Storage-Virtualisierung auf der Basis von Standard-Server-Hardware anbieten, mit der sich Speichersysteme beliebiger Hersteller zentral verwalten lassen. Der größte Wachstumsschub geht derzeit aber von den Anbietern hyperkonvergenter Systeme aus, die aus Standard-Server-Hardware in Verbindung mit einem Hypervisor, den zugehörigen virtuellen Netzwerk-Switches sowie direkt an den Server angebundenen Speicherlaufwerken eine Komplettinfrastruktur für die Server- und Desktop-Virtualisierung bereitstellen. Dieses Marktsegment haben zunächst vor allem Start-ups wie Nutanix, Simplivity und Atlantis Computing vorangetrieben.
Wie bereits erwähnt, ist der Anteil an Speichersystemen, die teilweise oder vollständig mit SSDs bestückt sind, in den vergangenen Jahren stark gestiegen. Bei Hybrid-Arrays dient ein relativ kleiner SSD-Bereich von zum Beispiel fünf Prozent der Gesamtkapazität als Performance-Turbo. Den Großteil der Speicherkapazität stellen jedoch HDDs bereit. In Hybrid-Arrays lassen sich SSDs grundsätzlich auf zwei Wegen nutzen. Speichersysteme, die ein automatisches Storage Tiering unterstützen, verwenden SSDs in der Regel als eigenen Highspeed Storage Tier. Das Auto-Tiering migriert Datenbereiche mit hohen I/O-Anforderungen automatisch auf den schnellsten Tier und verschiebt sie wieder auf langsamere Speicherbereiche, sobald die I/O-Last dieser Datenbereiche einen bestimmten Schwellenwert unterschreitet. Einige Hersteller verwenden SSDs auch als großen Cache-Speicher, um die I/O-Performance deutlich zu beschleunigen.
Neben den All-Flash Start-ups propagieren inzwischen auch viele der traditionellen Storage-Anbieter das All-Flash-Zeitalter. Flash Arrays bieten im Vergleich zu festplattenbasierenden Systemen nicht nur eine deutlich höhere I/O-Performance und niedrigere Latenzzeiten. Sie benötigen auch erheblich weniger Platz und verbrauchen wesentlich weniger Energie. Um ein leistungsfähiges All-Flash-System zu erhalten, ist es aber nicht damit getan, ein klassisches, für mechanische Festplatten entwickeltes und mit proprietären Storage Controllern bestücktes Speichersystem einfach mit SSDs zu bestücken. Wichtig ist unter anderem eine Optimierung der Schreibzugriffe, weil die Lebensdauer einer SSD sehr stark von deren Anzahl abhängt. Die Anbieter traditioneller Speichersysteme arbeiten deshalb daran, ihre vorhandenen Systeme so weit wie möglich für die SSD-Nutzung zu optimieren. Inzwischen erreichen auch die kostengünstigeren MLC-SSDs (Multi-Level Cell) akzeptable Haltbarkeit. Für schreibintensive Anwendungen sind SLC-SDDs (Single-Level Cell) nach wie vor besser geeignet.
Für die I/O-Performance und die Latenz ist die SSD-Schnittstelle entscheidend. SATA-3 bietet eine maximale Geschwindigkeit von 6 GBit/s und Bandbreiten von bis zu 600 MByte/s. SAS-3 kommt mit 12 GBit/s und 1,2 GByte/s auf das Doppelte. Das SAS-Protokoll erlaubt es zudem, SSDs über zwei Pfade redundant an die Backplane anzubinden. Eine noch höhere Performance und deutlich niedrigere Latenz bietet die PCIe-Schnittstelle (PCI-Express), die direkt mit der Backplane verbunden ist. PCIe kommt mittlerweile vermehrt in Verbindung mit dem NVMe-Protokoll (Non-Volatile Memory Express) zur Nutzung, das für den Einsatz von PCIe-Flash-Speicher entwickelt wurde und eine große Zahl von Befehlen parallel übertragen kann. PCIe Gen-3 stellt pro serieller Verbindung, auch Lane genannt, eine Bandbreite von etwas unter 1 GByte/s zur Verfügung; mit acht Lanes lassen sich beispielsweise knapp 8 GByte/s nutzen. Derzeit unterstützt diese Spezifikation bis zu 32 Lanes.
Bei den Speicherkapazitäten von SSDs schreitet die Entwicklung in großen Schritten voran. Einige Hersteller setzen bereits die neuen 15-TByte-Drives von Samsung ein, die auf der 3D-V-NAND-Technik basieren. Im Jahr 2017 sollen SSDs mit 32 und mehr TByte Kapazität auf den Markt kommen. Um größere Speicherkapazitäten für Standardanwendungen mit moderaten Leistungsanforderungen und für weniger intensiv genutzte Daten bereitzustellen, werden hybride Storage-Systeme noch für einige Zeit eine kostengünstige Alternative zu All-Flash-Systemen bieten. Bei der Kostenbetrachtung sollte auch der Administrationsaufwand eine wichtige Rolle spielen. Hybridsysteme mit einem plattformübergreifenden zentralen Management schneiden dort deutlich besser ab als All-Flash-Insellösungen, die die Anwender mit proprietären Tools verwalten müssen.
Bereits seit einigen Jahren vermarkten mehrere Hersteller sogenannte konvergente Infrastrukturlösungen. Dabei handelt es sich in der Regel um eine von den beteiligten Herstellern zertifizierte Kombination aus Speichersystem und Server-Plattform. Zu den bekanntesten Angeboten zählen "Flexpod" mit Netapp-Storage und der UCS-Server-Plattform von Cisco, "Vblock" mit EMC-Storage und Cisco UCS sowie "Versastack" mit IBM-Storage und ebenfalls Cisco UCS. HDS (Hitachi Data Systems) bietet mit der "Unified Compute Platform" eine konvergente Lösung aus einer Hand an.
Bei den konvergenten Angeboten handelt es sich um eine Kombination traditioneller Speichersysteme mit Compute-Plattformen. Dies ist bei den vor wenigen Jahren neu im Markt eingeführten hyperkonvergenten Infrastrukturlösungen anders. Diese Produkte verwenden in der Regel Standard-x86-Server-Hardware mit direkt am Server angeschlossenen Speicherlaufwerken. Auf der Hardware läuft ein Hypervisor inklusive virtueller Netzwerkinfrastruktur, der Server- oder Desktop-Virtualisierung bereitstellt. Um eine hohe Verfügbarkeit zu gewährleisten, kommen mehrere Einzelsysteme in einem Cluster- oder Grid-Verbund zum Einsatz. Vor Datenverlusten schützen meist Erasure-Code-Verfahren, die jeden Datenblock auf zwei oder mehr Nodes dieses Verbunds replizieren. Zu den Vorreitern dieser neuen Produktkategorie zählen wie bereits erwähnt die Start-ups Nutanix, Simplivity und Atlantis Computing sowie SDS-Anbieter wie Datacore und Falconstor. Aber auch VMware, Red Hat und Suse bieten hyperkonvergente Lösungen an. Die VSAN-Lösung (Virtual SAN) von VMware vermarkten auch zahlreiche kleinere Server-Hersteller. Microsoft hat mit den "Storage Spaces" von Windows 2012 R2 ebenfalls eine SDS-Lösung für hyperkonvergente Systeme im Portfolio, die mit dem neuen Windows Server 2016 mit zusätzlichen Funktionen (Vnext) aufwarten wird. Die traditionellen Storage-Hersteller bieten mittlerweile ebenfalls hyperkonvergente Lösungen an, die meist auf der Basis der eigenen Produktpalette realisiert sind.
Gartner geht bis 2019 sogar von 5,5 Milliarden Dollar aus. Besonders gut eignen sich hyperkonvergente Systeme für die Server- und Desktop-Virtualisierung, da der Hypervisor die virtuellen Maschinen auf den lokal am Server angeschlossenen Laufwerken betreiben kann. Hyperkonvergente Appliances können zudem für kleinere Filialen den Großteil der benötigten IT-Infrastruktur mit vergleichsweise geringem Aufwand bereitstellen. Die meisten Systeme unterstützen einen Mix aus SSDs und HDDs. Bei der Produktauswahl sollte ein Unternehmen unter anderem darauf achten, wie gut sich das System skalieren lässt. So gibt es Hersteller, die spezielle Compute- und Storage-Modelle anbieten, um wahlweise die Rechenleistung, die I/O-Performance oder die Speicherkapazität zu erhöhen. Für größere Umgebungen ist zudem die Anzahl der maximal unterstützten Cluster- beziehungsweise Grid-Nodes wichtig.
Die Rolle eines Universalspeichersystems, das alle Anforderungen eines Unternehmens abdeckt, können hyperkonvergente Lösungen bislang nicht übernehmen. So benötigen zum Beispiel Datenbanken mit einem hohen Transaktionsaufkommen eine kontinuierlich hohe I/O-Performance der Schreib- und Lesevorgänge. Derartige unternehmenskritische Systeme laufen bislang häufig noch auf physischer Hardware in einem hochverfügbaren Clusterverbund.
Die bereits erwähnte Auto-Tiering-Funktion ist für alle bislang behandelten Speichersystemvarianten relevant. Einige Marktbeobachter sehen Hybridsysteme mit Auto-Tiering als aussterbende Übergangstechnik an, weil bald nur noch All-Flash-Systeme zum Einsatz kämen. Dem ist entgegenzuhalten, dass für ältere Daten, auf die so gut wie keine Zugriffe mehr erfolgen, eine Speicherung auf SSDs bislang immer noch teurer ist als die Ablage auf einem Nearline Tier. Auto-Tiering kann auch für All-Flash Arrays von Vorteil sein, um Datenbereiche mit aktuell hohen Schreibanforderungen auf Enterprise-SSDs zu legen und dadurch die Haltbarkeit der Standard-SSDs zu erhöhen, die deutlich weniger Schreibzyklen vertragen.
Große Unterschiede gibt es bei der Implementierung der Tiering-Funktionen. Falconstor zum Beispiel unterstützt aktuell ein statisches Tiering, ein automatisiertes Hin- und Herschieben soll ab 2017 möglich sein. Auch die Erfassung der I/O-Performance-Daten, die die Grundlage für die Migration von Datenbereichen zwischen den Tiers liefert, wird unterschiedlich gehandhabt. Einige Hersteller erfassen die Daten in Echtzeit und migrieren nach einem vorgegebenen Schema. Andere werten die Daten nur zu bestimmten Zeitpunkten aus, um ein permanentes Hin- und Hermigrieren zu unterbinden. Ein weiteres Kriterium ist die Anzahl der unterstützen Tiers. Beim Echtzeit-Auto-Tiering von Datacore lassen sich zum Beispiel bis zu 15 verschiedene Tiers definieren.
Das sogenannte Thin Provisioning zählt mittlerweile zu den Standardfunktionen von Speichersystemen. Es sorgt dafür, dass ein Server nur den Speicherplatz allokiert, der mit Daten beschrieben wurde, unabhängig davon, wie viel Speicherkapazität dem Server zugewiesen ist. Leistungsfähige Storage-Systeme sind zudem in der Lage, innerhalb des Server-Betriebssystems gelöschte Datenbereiche zu erkennen und wiederzuverwenden.
Für eine deutliche Reduktion der zu speichernden Datenmengen sorgt die ebenfalls von vielen Herstellern seit mehreren Jahren unterstützte Deduplizierung. Sie erkennt identische Datenblöcke und speichert diese nur ein einziges Mal. Die Deduplizierung zählt zu den Lieblingsfunktionen der All-Flash Start-ups, weil sich damit auf dem vergleichsweise teuren SSD-Speicher ein Zigfaches an Daten ablegen lässt. Die Start-ups haben es geschafft, dass bei All-Flash Arrays nicht mehr die physisch zur Verfügung stehende SSD-Speicherkapazität als Gesamtspeicherkapazität gilt, sondern die Datenmenge, die das System mithilfe von Deduplizierung und Datenkomprimierung speichern kann.
Die Datenkomprimierung zählt bei allen Herstellern schon seit Längerem zum Standardrepertoire. Netapp hat mit der sogenannten "Inline Data Compaction" eine weitere Optimierung eingeführt. Diese ermöglicht variable Blocklängen, wodurch sich bislang auftretende teilweise befüllte Blöcke eliminieren lassen. Um die gespeicherten Daten vor logischen Fehlern zu schützen, unterstützen alle Speichersysteme Snapshot-Techniken. Es gibt zudem Hersteller, die eine Continuous Data Protection (CDP) auf der Basis einer fortlaufenden asynchronen Replizierung implementiert haben.
Ein wichtiges Kriterium bei der Produktauswahl sind die Funktionen für die Speicherprovisionierung. Bislang führen die meisten Storage-Administratoren bei der Bereitstellung von Block-Level Storage nach wie vor ein direktes Mapping einer LUN auf den jeweiligen Server oder Clusterverbund durch. Der Trend geht allerdings zu einer stärker automatisierten Bereitstellung der Speicherressourcen. Einige Storage-Hersteller unterstützen dafür SMI-S (Storage Management Initiative Specification). Damit ist es zum Beispiel möglich, die Bereitstellung von LUNs von einer Automatisierungsinstanz wie VMware Virtual Center oder Microsoft Virtual Machine Manager durchführen zu lassen. Der Storage-Administrator definiert einen Speicher-Pool, aus dem sich die Provisionierungsanwendung eigenverantwortlich bedienen darf. Die von VMware eingeführten Virtual Volumes (Vvol) ermöglichen im VMware-Umfeld ebenfalls eine deutlich vereinfachte Bereitstellung von Speicherressourcen.
Eine automatisierte Provisionierung lässt sich bei einigen Herstellern auch mit unterschiedlichen Quality-of-Service-Klassen (QoS) verbinden, um per Knopfdruck zum Beispiel Highspeed Storage, gespiegelten Storage oder langsamen High-Capacity-Speicher bereitstellen zu können. Ein anderer QoS-Ansatz verwendet das automatische Tiering, um sicherzustellen, dass eine LUN vom Speichersystem immer die definierte minimale I/O-Zahl erhält und die maximale Latenz nicht überschritten wird. Es gibt auch Hersteller, die Obergrenzen definieren, um sicherzustellen, dass besonders leistungshungrige Anwendungen keine negativen Performance-Auswirkungen auf andere Systeme haben.
Wie bereits erwähnt, spielt für die laufenden Gesamtkosten einer Speicherlösung die Management-Software eine wichtige Rolle. Insellösungen, die sich nicht in ein zentrales Speicher-Management integrieren und nur mit den Tools des jeweiligen Herstellers verwalten lassen, treiben die laufenden Kosten in die Höhe.
Die schon angesprochenen SDS-Lösungen für Storage-Virtualisierung sitzen zwischen den Speichersystemen und den Servern und ermöglichen ein herstellerübergreifendes Speicher-Management. IBM nutzt sein "Spectrum Virtualize"-System (vormals SAN Volume Controller, SVC) dazu, All-Flash-Systeme in ein übergreifendes Storage-Management einzubinden. Die Virtualisierungslösungen von Datacore und Falconstor lassen sich auf die gleiche Weise nutzen, um zum Beispiel All-Flash Arrays und andere Speichersysteme beliebiger Hersteller zentral zu verwalten.
Mit Object Storage hat sich eine neue Speichersystemkategorie etabliert. Anstelle der bisher für die Datenspeicherung sowohl mit Block-Level- als auch mit File-Level-Storage-Systemen genutzten hierarchisch aufgebauten File-Systeme verwendet Object Storage eine flache Ablagestruktur. Object Storage wurde für die Speicherung von sehr großen Mengen unstrukturierter Daten entwickelt, wie sie zum Beispiel Websites, E-Mail-Systeme oder die mobile Kommunikation fortlaufend erzeugen. Mithilfe leistungsfähiger Suchalgorithmen sind Zugriffe auf die Daten sehr viel schneller möglich als mit herkömmlichen File-Systemen. Als Hardwareplattform verwenden Object-Storage-Lösungen ähnlich wie hyperkonvergente Systeme Standard-x86-Server, die zu einem Rechnerverbund zusammengeschaltet sind.
Bei Object Storage ist zu unterscheiden zwischen nativen Systemen und Gateway-Lösungen, die zum Beispiel über eine S3-Schnittstelle Daten in der Amazon-Cloud speichern können. Native Systeme gibt es in mehreren Ausprägungen. Openswift, das Object-Storage-Projekt von Openstack, kann Daten nur im Objektformat ablegen. Andere Konzepte wie Ceph oder Cinder kombinieren Object Storage mit Block- und File-Level-Support. Kommerzielle Anbieter wie Scality unterstützen ebenfalls ein möglichst breites Einsatzspektrum, das sowohl Object- als auch Block- und File-Storage umfasst.
Für Linux-affine Unternehmen sind die Speicherlösungen von Red Hat und Suse sowie "Unified Storage"-Produkte wie Nexenta oder Open DSS eine Überlegung wert. Bei hyperkonvergenten Systemen ist ein übergreifendes Speicher-Management schwieriger zu realisieren, da die Storage-Ressourcen nicht nach außen an externe Server präsentiert werden.
Das Angebot an Speichersystemen mit unterschiedlichen technischen Ansätzen ist breiter denn je. Die beste Entscheidungsgrundlage, um die zu einem Unternehmen passende Speicherlösung zu ermitteln, liefert eine Analyse der Performance- und Kapazitätsauslastung der Bestandssysteme, die sich über einen längeren Zeitraum erstrecken sollte. Für viele Mittelständler dürften derzeit Hybrid-Arrays eine ausreichend hohe Performance bieten. Solange der Hardware-GByte-Preis für SSDs noch nicht auf das Niveau von Nearline-HDDs gefallen ist, bleiben Hybridsysteme eine sinnvolle Option. Hyperkonvergente Lösungen können vor allem für die Server- und Desktop-Virtualisierung und kleinere Filialen eine gute Wahl sein. Bei der Produktauswahl werden die Storage-Management-Funktionen zu einem immer wichtigeren Entscheidungsmerkmal. SDS-Lösungen für die Storage-Virtualisierung können dabei mit der größten Hardwareunabhängigkeit punkten, diese hat allerdings ihren Preis.