Big Data, Virtual-Desktop-Infrastrukturen (VDI) und Cloud Computing haben einen unstillbaren Appetit auf Storage und Performance. Die Antwort der Speicherindustrie: Flash rückt immer näher an die Prozessoren heran, um die bestehenden "Flaschenhälse" zu umgehen. Die Entkopplung von Performance- und Kapazitäts-Tier kann dabei bereits im Hypervisor erfolgen.
Zwar ist Flash mit seinen oft beeindruckenden IOPS- (Input/Output Operations Per Second) und Latenzwerten ideal für zeitkritische Speicherzugriffe in großen Datenbanken oder Virtual-Desktop-Umgebungen; doch im Schnitt entfallen heute nur maximal 20 Prozent des Gesamtdatenvolumens auf solche "heißen" Daten. Die restlichen 80 Prozent sind "kalte", also selten benötigte oder zeitlich unkritische Daten. Aus wirtschaftlicher Sicht ist es mehr als sinnvoll, diesen kalten Datenanteil auch weiterhin auf großvolumigen Harddisks oder sogar Tape-Medien zu speichern. Ohnedies verlangt das überall steigende Datenaufkommen, alle verfügbaren Speicherkapazitäten so ökonomisch wie möglich auszunutzen. In Zukunft wird daher wohl jedes Enterprise-Storage-System alle Produktivdaten inline deduplizieren und komprimieren.
Abschied von Fibre Channel
Ein vielversprechender Ansatz, um die Performance- mit der Kapazitätsskalierung besser unter einen Hut zu bringen, zeichnet sich in der Verkürzung des Abstands zwischen Flash und CPU ab. Für heiße Daten kann der Speicher gar nicht nah genug am Prozessor sitzen. So dachte offenbar auch EMC bei der Übernahme des Herstellers DSSD Technologies im vorigen Jahr. Denn damit erkaufte sich der Speichergigant die Fähigkeit, Flash direkt via PCI Express (PCIe) anzubinden. Fibre Channel (FC) als Zugriffsprotokoll wird in dieser Konstellation nach fast 25 Jahren obsolet - wobei allein schon der Wegfall des PCIe-FC-Protokoll-Overheads einen Latenz-"Quantensprung" von bislang ein bis zwei Millisekunden auf 60 Mikrosekunden ermöglichen wird.
Nicht weniger interessant ist die Entwicklung neuer NAND-RAM-Speichermodule, die im kommenden Jahr voraussichtlich an Bedeutung gewinnen werden: Solche Flash-Module lassen sich direkt in freie RAM-DIMM-Slots einstecken und rücken auf diese Weise noch näher an die Server-CPU heran. Speicherzugriffe lassen sich dadurch derart beschleunigen, dass selbst Flash-PCIe-Verbindungen im Vergleich dazu langsam wirken. Allerdings verfügen NAND-RAM-Module derzeit nur über begrenzte Speicherkapazitäten. Auch technisch sind sie noch nicht für den Enterprise-Einsatz ausgereift - etwa im Hinblick auf Garbage Collection, wofür es bislang keine befriedigende Lösung gibt.
Performance und Kapazität entkoppelt
Spannende Entwicklungen zeichnen sich auch bei der Art und Weise ab, wie zum Beispiel NAND-Flashs in hybriden Systemen mit SAS- und SATA-HDDs zusammenwirken. Das sogenannte Tiering - also die automatische Verteilung von heißen und kalten Daten auf schnelle Flash-Medien beziehungsweise hochkapazitive Festplatten - gehört bei Hybridlösungen seit langem zum Standard. Die meisten Tiering-Mechanismen sind jedoch sehr komplex und von geringer Granularität, was eine agile Storage-Tier-Integration auf Applikationsebene erschwert.
In der Folge kommt die Performance nicht immer da an, wo sie aktuell am dringendsten nötigt ist - etwa beim Boot Storm in einer VDI-Umgebung, wenn zu Beginn des Arbeitstags mehrere Hundert Mitarbeiter gleichzeitig ihren Desktop hochfahren. Überdies leiden viele Hybridsysteme an einem natürlichen Flaschenhals: Ihre Storage Controller sind nicht im gleichen Maß skalierbar wie die angeschlossene Server-Infrastruktur. Zudem liegen die Flash-Medien im Performance Tier noch relativ weit entfernt von der Server-CPU.
Genau an diesem Punkt setzt der Trend zum sogenannten Decoupled Storage an: Durch die physische Trennung vom Kapazitäts-Tier kann die High-Performance-Schicht dichter an die Prozessoren heranrücken, sodass dafür etwa auch PCIe-Flash-Karten, SSDs und RAM im Server infrage kommen. Möglich wird dies, weil eine Softwareschicht im Hypervisor-Kernel die Trennung aus Anwendungssicht virtuell und transparent wieder zusammenführt. Daraus resultiert folgender Investitionsvorteil: Zusätzliche Flash-Medien im Server skalieren als Performance Tier linear mit steigender VM-Anzahl (Virtual Machine). Sie entlasten bestehende Speichersysteme von I/O-intensiven Speicherzugriffen und verlängern somit deren Lebensdauer. Denn die Skalierung geht komplett am Flaschenhals Storage Controller vorbei.
Datenhaltung vollständig im Host
Es steht zu erwarten, dass mit wachsender Zahl von Flash-Medien im Hypervisor-Cluster und der Umfunktionierung klassischer SAN-Arrays zum Kapazitäts-Tier perspektivisch auch immer mehr klassische SAN-Services nativ auf Hypervisor-Ebene zur Verfügung stehen. Hersteller wie etwa Pernixdata und Atlantis Computing gehen bereits in diese Richtung.
So bestechend die Vorteile, so vielfältig sind auch die Herausforderungen im Umfeld von Decoupled Storage - eine davon betrifft die Frage nach der Datenkonsistenz: Im Decoupled-Szenario landen Write-I/Os einer VM direkt auf dem RAM-Tier des Hosts, von wo aus sie in bestimmten Zeitintervallen zu größeren "Chunks" gebündelt auf einen "Persistent Tier" (Speichersystem) kopiert werden ("Destaging"). Bei einem Host-Fehler jedoch können alle noch nicht kopierten Daten im RAM-Tier verloren gehen. Mit der Größe des Zeitintervalls wächst dieser mögliche Verlust - und damit auch die Gefahr von Dateninkonsistenz. Lösen lässt sich diese Herausforderung innerhalb des Hypervisor-Clusters durch parallele Kopien von Write-I/Os auf andere Host-Systeme. Fällt ein Host aus, kopiert ein anderer die I/Os in den Persistent Tier. Der Zeitverlust durch die I/O-Kopien innerhalb des Host-Clusters fällt im Vergleich zu Schreibzugriffen auf externe Speichersysteme in keiner Weise ins Gewicht.
Um das Caching und Tiering im Hypervisor noch weiter zu optimieren, versuchen manche Hersteller, den I/O-Pfad durch zusätzliche Monitoring-Features mit applikationsspezifischen Informationen anzureichern: Je genauer der Applikationsdatenstrom bekannt ist, desto besser lässt sich etwa entscheiden, welche Datenblöcke sich für das Caching eignen und welche nicht. Aus diesem Grund hat beispielsweise Pernixdata diverse Management- und Monitoring-Funktionen aus der VMware-Oberfläche in ein eigenes GUI verlagert - aller Erfahrung nach ein untrügliches Zeichen dafür, dass die Herstellerlösung schon bald weitere Funktionen und andere Hypervisoren wie KVM oder Hyper-V unterstützen wird.
Daran zeigt sich verstärkt, inwieweit Software die Speicherlandschaft im virtuellen Umfeld transformiert. Tatsächlich zeigen die Erfahrungen beispielsweise von Computacenter, dass sich Investitionen in die Ressourcen von Hypervisor-Hosts schneller amortisieren als solche in zentrale Speichersysteme - nämlich meist schon innerhalb der ersten sechs Monate, oft sogar noch früher.
Ein radikaler, aber durchaus logischer Schritt wäre es nun, nicht nur den Performance Tier, sondern gleich die komplette Datenhaltung in den Host-Cluster zu integrieren. Sämtliche Speicherressourcen stehen dann unter Hypervisor-Kontrolle oder laufen als Storage Virtual Maschine (SVM) auf dem Host. Faktisch ist der gesamte Speicher in diesem Hyperkonvergenz-Szenario (HCI - Hyper-Converged Infrastructure) vollständig durch Software abgebildet. Erste Produktvertreter, die diesen Weg beschreiten, sind etwa HP Storvirtual, Nutanix Acropolis sowie EMC Scaleio. Auch die engere lizenztechnische Verbindung zwischen Vsphere ESX und VMware VSAN beispielsweise ist ein Anzeichen dafür, dass Softwarehersteller die Speicherindustrie nachhaltig verändern werden.