Standards und Automation ebnen den Weg

Virtualisierung vom Server bis zum Desktop

11. März 2010, 14:47 Uhr | Andreas Kohne ist Consultant für Virtualisierung beim IT-Dienstleister Materna in Dortmund.

Server, Applikationen, Desktops oder Storage - virtualisieren lässt sich heute so ziemlich alles. Die meisten Unternehmen haben auch bereits virtuelle Maschinen (VMs) im Einsatz. Eine vorausschauende Planung ist der Schlüssel für ein passgenaues Sizing der virtualisierten Infrastruktur. Und auch Standardisierung und Automatisierung sind treue Begleiter eines jeden Virtualisierungsvorhabens.

In der Regel beginnen Unternehmen mit der Virtualisierung von Servern und Storage, bevor es an
die Desktops geht. Die Verantwortlichen haben dann erste Erfahrungen mit den neuen Plattformen
gesammelt und können beispielsweise die Performance der Hypervisor-Plattform einschätzen. Eine
Big-Bang-Einführung hingegen ist wenig ratsam: Ein solches Projekt wäre zu aufwändig, da alleine
die Tool-Landschaft sehr umfassend ist. Plant ein Unternehmen aber, nach den Servern auch die
Clients zu virtualisieren, lässt sich das Rechenzentrum von Anfang an entsprechend ausrüsten.

Zu Beginn eines Virtualisierungsvorhabens werden die einzelnen Infrastrukturbereiche
durchleuchtet: Welche Betriebssysteme sind im Server-Bereich vorhanden? Wie wird der Storage auf
die Dienste verteilt? Welche Applikationen sind im Einsatz, und wie sehen die Leistungsprofile aus?
Auf dieser Basis lassen sich die Applikationen beispielsweise auf ein bestimmtes Set begrenzen. Das
zweite Ziel einer solchen Analyse ist es, die Infrastruktur weitestgehend standardisieren zu
können. Erst durch Standardisierung lassen sich Elemente in der virtuellen Infrastruktur mittels
Automatisierung effektiv nutzen.

Eine aktuelle Umfrage von Materna hat ergeben, dass 51 Prozent der befragten Unternehmen bereits
Automationsmechanismen einsetzen und diese auch weiter ausbauen wollen. Eine klassische
Automatisierungsaufgabe ist die Softwareverteilung, wie die Umfrage ergeben hat: Über 80 Prozent
der befragten Unternehmen installieren Server- und Client-Software automatisiert und bringen
Anwendungen automatisch ins Feld. Das Ziel ist es, Desktops und Server kontrolliert, auf einem
automatisierten und reproduzierbaren Weg mit Software zu versorgen. Dies funktioniert jedoch nur
optimal, wenn das Unternehmen die IT zuvor möglichst standardisiert hat.

Desktop-Virtualisierung reich an Automatismen

Auch das noch junge Konzept der Desktop-Virtualisierung ist reich an Automationsmöglichkeiten.
Fertige Basiselemente lassen sich nach Bedarf und dynamisch zusammensetzen. So entzerren sie den
kompletten Desktop: Der Ansatz trennt das Betriebssystem von der Hardware, und Benutzerdaten wie
auch Einstellungen – also die Profile – sowie Applikationen werden vom Desktop heruntergenommen.
Stattdessen halten Templates die verschiedenen Elemente vor. Diese werden nun vollautomatisch nach
Benutzervorgaben zum gewünschten Desktop zusammengestellt. Anschließend lassen sich Applikationen
dann beispielsweise streamen oder über einen Terminal-Server bereitstellen. Meldet sich der
Benutzer ab, wird der Prozess rückgängig gemacht; die leeren Desktop-Hülsen bleiben zurück. Da alle
Teilschritte automatisiert sind, sollten die Komponenten, aus denen sich die virtuellen Dienste
zusammensetzen, hochgradig standardisiert und auf ein Minimum reduziert sein.

Lifecycle virtueller Maschinen

Auch die Einrichtung der virtuellen Systeme folgt einem hoch automatisierten Lifecycle, der für
Server und Desktops im Wesentlichen gleichermaßen gilt. Der Prozess reicht von der Beschaffung und
Bereitstellung über Absicherung, Roll-out und Überwachung bis hin zu Wartung, Backup und
Entsorgung. Die Prozesse laufen über alle Lifecycle-Elemente hinweg schnell und vollautomatisiert
ab.

Sind beispielsweise Standard-Desktops für eine bestimmte Abteilung zu beschaffen, erkennt die
dahinter liegende Automationsplattform sofort, welche Basis-Images mit welchen Zusatzapplikationen
für die jeweiligen Benutzer einzurichten sind. Anschließend stellt sie – im Fall der
Desktop-Virtualisierung – Applikationen, Benutzerprofile und Ressourcen wie zum Beispiel Drucker
und Freigaben bereit. Single Sign-on, Verschlüsselung, Virenscanner und die Firewall-Konfiguration
gehören zur Absicherungsphase. Ein klassischer Roll-out entfällt. Der Anwender kann sich dank
Desktop-Virtualisierung an einem beliebigen Endgerät einloggen, ohne dass der Administrator etwas
vor Ort installieren, Kabel verlegen oder Peripherie anschließen muss.

In der Überwachungsphase geht es um das Monitoring und die Bereitstellung ausreichender
Performance. Vor allem die in der Regel zeitaufwändige Wartungsphase profitiert von den
Automatismen, denn in den virtuellen Maschinen werden nur noch standardisierte Bausteine
ausgetauscht. Schließlich entfernt der Entsorgungsprozess automatisiert die virtuelle Maschine aus
dem System, löscht sie aus dem Storage und streicht den Benutzer aus dem Verzeichnisdienst.

Alle Teilprozesse lassen sich mit einfachen Mausklicks auslösen. Damit kein VM-Wildwuchs
entsteht, haben die Virtualisierungsanbieter Lösungen für das Lifecycle-Management im Programm. Sie
sind als separate Schicht in der Virtualisierungsinfrastruktur eingebunden und begleiten die
virtuellen Maschinen vollautomatisiert durch alle Phasen, sodass diese jederzeit auffindbar sind.
Der Administrator weist virtuellen Servern beispielsweise eine Aufgabe, eine Laufzeit und einen
Verantwortlichen zu. Endanwendern steht ein Web-Interface zur Verfügung, um zum Beispiel einen
neuen Benutzer anzulegen oder eine VM zu konfigurieren. So lässt sich ein automatisierter Prozess
anstoßen, der die virtuelle Maschine aus den Standardkomponenten zusammenstellt und startet. Nach
Beendigung der Laufzeit wird sie einschließlich aller Einträge automatisiert gelöscht.

Automation beschleunigt den VM-Lifecycle zwar erheblich, ist aber kein Allheilmittel: Auch in
der virtualisierten Welt sind Administrationsaufgaben wie Softwareverteilung und Image-Erstellung
für virtuelle Desktops zu erledigen. Sie sind nur ins Rechenzentrum verschoben und laufen dort
zentralisiert ab – standardisiert, automatisiert und damit deutlich schneller. Das bedeutet, dass
die Prozesse vorab genau zu definieren sind. Unternehmen, die sich am Regelwerk ITIL (IT
Infrastructure Library) orientieren, sind hier bereits gut vorbereitet.

Im Fall der Desktop-Virtualisierung orientiert sich die RZ-Ausstattung vor allem an den
Anforderungen der Benutzer. Denn erfahrungsgemäß scheitern Desktop-Virtualisierungsprojekte nicht
an der Technik, sondern an mangelnder Benutzerzufriedenheit.

Am Anfang steht daher die Analyse der Benutzergruppen. Hier identifiziert ein Unternehmen
zunächst Schlüsselgruppen von Benutzern, die vergleichbare Anforderungen an die Ressourcen und
Performance stellen. In diesen Gruppen nimmt man Leistungsmessungen vor, beispielsweise welche
Applikationen und Drucker sie in welcher Art und Weise nutzen. Auf Basis dieser Messergebnisse
lassen sich Hochrechnungen bezüglich Performance, Bandbreite für das Netzwerk, Arbeitsspeicher und
Prozessorleistung für die Schlüsselgruppen durchführen. Ergänzend ist Rechenleistung für die
eigentliche Virtualisierungsarchitektur zu addieren. So erhalten die IT-Verantwortlichen eine
realistische Sicht auf die geplante Virtualisierungsarchitektur.

Ein weiterer wichtiger Aspekt ist die Protokollarchitektur. Die großen Hersteller von
Virtualisierungslösungen haben ihre Protokolle inzwischen weiterentwickelt, um die
Desktop-Performance tatsächlich zum Endbenutzer zu bringen. Citrix hat mit HDX sein bewährtes
ICA-Protokoll auf Desktop-Virtualisierung getrimmt und vor allem auf schmale Bandbreiten geachtet.
VMware hat mit dem PCoIP-Protokoll Vergleichbares im Angebot. Welche Protokollarchitektur man
wählt, richtet sich danach, ob die Anwender im LAN, mobil oder hochdynamisch arbeiten. Zusätzlich
benötigen virtuelle Systeme ausreichend Netzwerk-Connectivity, Rechenleistung und Arbeitsspeicher.
Ab einer bestimmten Größe spricht vieles für eine Blade-Architektur, da diese eine hohe Baudichte
bewirkt und sich damit sehr viele Sessions darauf unterbringen lassen.

Des Weiteren benötigt die virtuelle Infrastruktur ausreichend Speicherkapazität im SAN. Die
Virtualisierungsanbieter haben auch dieses Problem erkannt und ihre Plattformen inzwischen
nachgerüstet: VMware setzt seine Linked-Clone-Technik ein, um den benötigten Speicherplatz zu
reduzieren, Citrix hat mit dem Provisioning-Server ebenfalls eine solche Komponente in seine
Xendesktop-Suite integriert. Werden alle Daten nur noch im RZ vorgehalten, sind eine hohe
Ausfallsicherheit der virtuellen Maschinen und Datensicherheit selbstverständlich – zumal
Unternehmen die entscheidenden Vorteile, virtuelle Desktops und Server-Dienste auch über das
Internet bereitzustellen, nutzen wollen. Mittels VPN-Gateway lassen sich die Daten verschlüsselt
nach außen bringen. Autorisierungs- und Authentifizierungsmechanismen regeln den sicheren
Zugriff.

Schließlich ist noch die Wahl der Endgeräte zu berücksichtigen. Werden beispielsweise
hochperformante Anwendungen etwa für 3D benötigt, sind normale Thin Clients nicht performant genug.
Solche Endgeräte müssen eine gute Grafikkarte und eine leistungsstarke CPU haben, um Daten lokal zu
verarbeiten. Dies kann dazu führen, dass zwar die Sessions aus dem Rechenzentrum übertragen werden,
der PC aber weiterhin am Arbeitsplatz steht. Damit schließt sich der Kreis für
Desktop-Virtualisierungspläne: Die Analyse der Benutzeranforderungen liefert auf allen Ebenen
wichtige Informationen für das Sizing.

Ist die Infrastruktur erst einmal weitgehend virtualisiert, lassen sich die Komponenten mittels
Automatisierung kombinieren. Dann lassen sich beispielsweise auf den Servern virtuelle
Applikationen einsetzen oder Virtual-Server-Dienste für virtualisierte Clients mit virtualisierten
Applikationen zur Verfügung stellen. Gänzlich abzuraten ist allerdings davon, auf einem Host, der
virtuelle Server ausführt, auch virtuelle Clients laufen zu lassen. Hier empfiehlt sich eine
physische Trennung, da sich die Ressourcennutzung deutlich unterscheidet – und natürlich auch aus
Sicherheitsgründen.

Ein Virtualisierungs-Check unterstützt dabei, die Fragen nach der RZ-Ausstattung bestmöglich zu
beantworten. Er hilft unabhängig von der Technik, die Ist-Situation zu messen, zu analysieren und
zu bewerten. Dies verschafft dem IT-Leiter einen Überblick über die zur Virtualisierung zur
Verfügung stehende Client- und Server-Umgebung.

Theoretisch lassen sich zwar sehr viele VMs auf einer Hardware betreiben. Dennoch sind die
Charakteristika der Workloads sehr unterschiedlich. IT-Verantwortliche sind daher gut beraten,
exakt zu planen, wie die Systeme auf die virtuellen Hosts verteilt werden. Diese sollen zwar
maximal ausgenutzt sein, aber dennoch performant arbeiten. Geht die Systemadministration
ungeschickt vor, lässt sich ein Hypervisor schnell in die Knie zwingen. Daher ist auch die Dynamik
nicht zu unterschätzen, die beispielsweise der ESX Server nutzt, um für einen Lastausgleich zu
sorgen. Das dahinterliegende Regelwerk muss gut durchdacht sein, damit sich nur Maschinen
kombinieren lassen, die dafür auch ausgelegt sind.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+