Speicher für virtuelle Desktops

Auswahlkriterien für VDI-Storage

17. Dezember 2010, 6:00 Uhr | Christoph Lange

Beim Aufbau einer Virtual Desktop Infrastructure (VDI) spielt die Auswahl des Storage-Systems eine wichtige Rolle. So ist zu entscheiden, ob lokaler Speicher oder ein zentrales Speichersystem zum Einsatz kommen soll. Um die Speicherressourcen richtig zu dimensionieren, sind zudem die Anforderungen der virtuellen Desktops möglichst genau zu erfassen.

Eine Virtual Desktop Infrastructure für eine größere Zahl an Benutzern ist ein komplexes
Gebilde, das sich aus zahlreichen Einzelkomponenten zusammensetzt. Performance-Engpässe lassen sich
nur vermeiden, wenn alle Bausteine so dimensioniert werden, dass sie auch Spitzenauslastungen ohne
größere Leistungseinbußen bewältigen können. Dazu zählt unter anderem die CPU- und RAM-Ausstattung
der Virtualisierungs-Hosts. Sie muss so ausgelegt sein, dass für die virtuellen Desktops immer
ausreichend Ressourcen bereitstehen. Gleiches gilt für die Netzwerkbandbreite. Wenn die Benutzer
über das LAN auf ihre virtuellen Desktops zugreifen, steht in der Regel ausreichend Bandbreite zur
Verfügung. Erfolgt der Zugriff von entfernten Standorten aus über eine WAN-Verbindung, müssen bei
niedrigen Bandbreiten und hohen Latenzzeiten unter Umständen WAN-Beschleuniger zum Einsatz
kommen.

Eine wichtige Rolle spielt auch die eingesetzte Speicherlösung. Sie muss in der Lage sein, die
Input/Output-Anforderungen (I/O) der virtuellen Desktops zu erfüllen. Dieser Beitrag konzentriert
sich darauf, welche Punkte bei der Auswahl einer Storage-Lösung zu berücksichtigen sind.
Ausgangspunkt ist, dass eine VDI-Lösung zum Einsatz kommt, die den Benutzern Desktops über einen
Server-Hypervisor wie VMware ESX Server, Citrix Xenserver oder Microsoft Hyper-V bereitstellt.
Nicht berücksichtigt wurden die erst seit kurzem erhältliche Virtualisierung mittels
Client-Hypervisor sowie Streaming-Lösungen für Client-Betriebssysteme und Applikationen.

Shared Storage oder lokaler Speicher

Ob für eine VDI-Umgebung Server mit lokal angeschlossenen Festplatten (Direct Attached Storage,
DAS) oder per Storage Area Network (SAN) angebundene zentrale Speichersysteme die bessere Wahl
sind, hängt in erster Linie davon ab, welche Anforderungen die VDI-Lösung erfüllen muss. Lokale
Platten sind in der Regel kostengünstiger als ein SAN und einfacher zu verwalten. Mit einer
größeren Zahl an schnellen Festplatten, die mit 15.000 Umdrehungen pro Minute rotieren, und einem
auf hohe I/O-Anforderungen ausgelegten RAID-Level wie 1 oder 10 lässt sich eine sehr gute
Performance erzielen.

Der größte Nachteil dieses Ansatzes ist, dass die virtuellen Desktops an den lokalen Storage
gebunden sind. Es ist nicht möglich, sie im laufenden Betrieb auf einen anderen
Virtualisierungs-Host zu verschieben, sodass Wartungsarbeiten an den Host-Systemen immer mit
Ausfallzeiten für die virtuellen Desktops verbunden sind. Auch eine automatische Lastverteilung der
VDI-Umgebung zur optimalen Auslastung der vorhandenen Host-Systeme lässt sich mit lokalem Storage
nicht nutzen. Zudem kann der Systemverwalter die Speicherkapazität nicht mehr weiter skalieren,
sobald ein Server mit der maximalen Plattenzahl bestückt ist.

Damit die Speicherlösung nicht zum Performance-Engpass wird, ist es wichtig, die
I/O-Anforderungen der VDI-Umgebung zu ermitteln. Dies gilt sowohl für lokalen als auch für
zentralen Storage. Ein virtueller Desktop benötigt abhängig von den eingesetzten Applikationen grob
geschätzt zwischen fünf und 20 I/O-Operationen pro Sekunde (IOPS). Dabei kann man das Verhältnis
von Lese- und Schreibzugriffen mit 20 zu 80 annehmen. Das Zugriffsmuster ist überwiegend zufälliger
Natur (Random I/O). Mit 100 virtuellen Desktops ergibt dies bei moderaten Arbeitslasten etwa 500
IOPS. Bei 100 Power-Usern dürften ungefähr 2.000 IOPS anfallen.

I/O-Anforderungen ermitteln

Um realistische Zahlen zu erhalten, sollten IT-Verantwortliche die I/O-Lastprofile
unterschiedlicher Nutzergruppen über einen längeren Zeitraum hinweg durch Performance-Messungen
erfassen. Zusätzlich ist zu ermitteln, wie hoch der Anteil von Power Usern, von Benutzern mit
normalen Lastprofilen und von Anwendern mit wenig Last ist. Auch das Verhältnis der Lese- und
Schreibzugriffe ist wichtig, um die Storage-Lösung so zu gestalten, dass sie die tatsächlichen
Anforderungen möglichst gut erfüllen kann. Ob Spitzenbelastungen wie das Hochfahren der Rechner am
Morgen und die Anmeldung der Benutzer am Netzwerk zu Leistungsengpässen beim Disk-I/O führen,
sollte eine IT-Organisation ebenfalls bereits im Vorfeld untersuchen. Dazu liefern die
Arbeitszeitprofile der Mitarbeiter eine gute Grundlage.

Des Weiteren ist der Einsatz von Virenscannern genauer zu beleuchten, weil diese zu hohen
I/O-Belastungen führen. Wenn alle virtuellen Desktops zur selben Zeit einen vollständigen
Viren-Scan durchführen, kann dies das Speichersystem in die Knie zwingen. Um dem vorzubeugen,
lassen sich die Viren-Scans zum Beispiel zeitlich staffeln, sodass immer nur ein Teil der
virtuellen Desktops gleichzeitig den Scan durchführt. Oder der Virenscan wird nicht mehr auf den
Clients durchgeführt, sondern von einer speziellen Security-Appliance übernommen. Auch für das
Einspielen von Hotfixes und Software-Updates gilt, dass eine zeitliche Entzerrung die
I/O-Spitzenbelastungen deutlich reduzieren kann.

Dedizierter oder Shared Desktop

Welche I/O-Anforderungen das Speichersystem erfüllen muss, hängt auch davon ab, wie viele
dedizierte virtuelle Desktops im Einsatz sind und wie viele virtuelle Maschinen dasselbe Golden
Image verwenden. Bei dedizierten Desktops erhält jeder Benutzer eine eigene virtuelle Maschine mit
vollständigem Betriebssystem. Jeder virtuelle Desktop produziert ungefähr dieselbe I/O-Last wie ein
physischer PC.

Anders verhält es sich mit Shared Desktops, die alle auf denselben Golden-Image-Desktop
zugreifen und nur die benutzerspezifischen Deltas in einem separaten Bereich vorübergehend oder
dauerhaft speichern. Der Golden-Image-Desktop hat sehr hohe I/O-Anforderungen, die sich zum
Beispiel durch Solid State Disks (SSDs) deutlich besser abdecken lassen als durch herkömmliche
Festplatten. VMware hat die vor Kurzem vorgestellte VDI-Lösung View 4.5 genau in dieser Hinsicht
optimiert: Der Golden Image Master kann jetzt auf einer anderen LUN platziert werden als die
virtuellen Desktops, sodass man dafür gezielt SSD nutzen kann.

Ein anderer Weg, die I/O-Performance eines Speichersystems zu steigern, ist der Einsatz von
großzügig dimensionierten Cache-Modulen, die mithilfe intelligenter Caching-Algorithmen schnelle
Lese- und Schreiboperationen ermöglichen. Ein Vertreter dieses Ansatzes ist Network Appliance. Im
Ontap-Betriebssystem ist ein Transparent Storage Cache Sharing (TSCS) integriert, das durch so
genannte Performance-Acceleration-Module (PAM) erweitert wird. Dieser Flash-Cache beschleunigt die
Lesezugriffe und ermöglicht eine hohe I/O-Performance mit einer vergleichsweise geringen Zahl an
Spindeln. Von der Cache-Beschleunigung der Lese-I/Os profitieren auch die Schreib-I/Os, weil
deutlich weniger Lese-I/Os auf die Platte erfolgen müssen.

Anforderungen an das Disk-Layout

Generell gilt, dass die I/O-Performance eines Speichersystems davon abhängt, wie viele physische
Festplatten des Disk-Arrays von einem physischen Host oder einem virtuellen Desktop gleichzeitig
genutzt werden können. Network Appliance empfiehlt deshalb für das Disk-Layout seiner
Speichersysteme, eine möglichst kleine Anzahl möglichst großer Aggregate zu konfigurieren. Bei
kleineren Disk-Arrays lautet die Herstellervorgabe, nur ein einziges Aggregat einzurichten, das
alle Festplatten umfasst.

In den vergangenen Jahren haben sich im Storage-Markt einige Startup-Unternehmen etabliert, die
eine neue Speichersystemarchitektur verwenden. Zu ihnen zählen beispielsweise XIV, die mittlerweile
zu IBM gehören, die vor kurzem von HP übernommene 3PAR oder Pillar Data Systems. Ihnen allen ist
gemeinsam, dass sie einen internen Virtualisierungs-Layer verwenden, durch den immer alle
Festplatten des Systems nutzbar sind, um eine hohe I/O-Leistung zu erzielen.

Eine wichtige Rolle für die I/O-Anforderungen spielt auch das verwendete RAID-Level. Von ihm
hängt ab, wie viele I/O-Operationen pro Schreibbefehl durchgeführt werden müssen. So sind zum
Beispiel bei einem RAID-5-Verbund vier I/O-Schritte nötig, um einen I/O auf die Festplatte zu
schreiben. Ein RAID-6 benötigt dafür sechs I/Os, weil die Parity-Daten doppelt geschrieben werden
müssen. Einige Speichersystemhersteller haben spezielle RAID-Lösungen entwickelt, um die
Performance der RAID-Operationen zu beschleunigen. Wie gut sie sich für VDI-Umgebungen eignen, ist
im Einzelfall zu prüfen.

Für das LUN-Sizing gibt es von den Virtualisierungsanbietern einige Faustregeln. VMware
unterscheidet danach, ob die Anwender einen vollständigen virtuellen Desktop erhalten, oder ob die
Client-Betriebssysteme als so genannte Linked Clones im Shared-Modus bereitstehen. Mit kompletten
Desktops liegt die Obergrenze bei etwa 30 Desktops pro LUN, bei Linked Clones sind bis zu 64
Desktops pro LUN möglich.

Wenn ältere Desktop-Betriebssysteme wie Windows XP zum Einsatz kommen, ist zudem das so genannte
Disk Alignment zu berücksichtigen. Bevor das Client-OS in einer virtuellen Disk installiert wird,
sollte man das Partition Alignment anpassen, um eine optimale I/O-Performance zu erzielen. Mit
neueren Betriebssystemen wie Windows 7, Vista oder Windows 2008 ist dies nicht mehr
erforderlich.

Entscheidet sich ein Unternehmen dafür, seine VDI-Infrastruktur mit einem zentralen
Speichersystem auszustatten, ist noch die Frage zu klären, welches Storage-Protokoll zum Einsatz
kommen soll. Die beste Performance bietet nach wie vor Fibre Channel (FC), allerdings gehen damit
auch die höchsten Kosten einher, weil ein dediziertes FC-Netz aufzubauen ist. Das ebenfalls
blockorientierte iSCSI-Protokoll verwendet normale IP-LAN-Infrastrukturen und ist dadurch
kostengünstiger als ein FC-SAN. Im Performance-Vergleich schneidet iSCSI bislang etwas schlechter
ab als FC.

In Virtualisierungsumgebungen ist es bei beiden Protokollen wichtig, die Warteschlangentiefe
(Queue Depth) der Host-Bus-Adapter zu erhöhen. VMware empfiehlt, anstelle der werkseitigen
Einstellung den Wert 128 zu konfigurieren. Um Performance-Engpässe rechtzeitig zu erkennen, sollte
man die HBA-Warteschlangen kontinuierlich überwachen.

Zu den stärksten Befürwortern von NAS/NFS als Storage-Protokoll für virtualisierte Umgebungen
zählt Network Appliance. Der Hersteller führt als Vorteil unter anderem an, dass sich die
Datencontainer für virtuelle Maschinen sehr einfach anpassen lassen, wobei auch eine Verkleinerung
problemlos möglich ist. Die Performance reicht laut Hersteller fast an die blockorientierten
Protokolle FC und iSCSI heran, sodass man laut Network Appliance mit NAS/NFS auch größere
Virtualisierungsumgebungen ohne Leistungsengpässe betreiben kann.

Wer im laufenden Betrieb auf Nummer sicher gehen will, dass keine Performance-Engpässe
entstehen, sollte die Disk-I/O-Raten der virtuellen Desktops kontinuierlich beobachten. Solange
sich die Warteschlangen und Latenzzeiten der Virtual-Desktop-Festplatten in einem niedrigen Bereich
bewegen, kann das Speichersystem die I/O-Anforderungen schnell genug abarbeiten.

transfer

transfer


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+