Desktop-Virtualisierung

Client-Server statt Client/Server

26. Januar 2007, 0:10 Uhr | Klaus Becker/wg Klaus Becker ist Director Technology & Engineering EMEA bei Wyse.

Seit den 1960er-Jahren ist die Virtualisierung zur Partitionierung großer Mainframe-Hardware im Einsatz, seit einigen Jahren findet sie auch im Serverumfeld Verwendung. Nun erobern die Virtualisierungstechniken den Desktop. Dieser Trend zielt auf die einfachere Verwaltung und eine verbesserte Nutzung der Hardwareressourcen.

Bei der Begriffsdefinition von "Virtualisierung" gilt es, grundsätzlich zwischen Hardware- und
Softwarevirtualisierung zu unterscheiden. Die hier im Fokus stehende Softwarevirtualisierung lässt
sich grob in System- und Applikationsvirtualisierung unterteilen. In allen Fällen geht es um eine
Aufteilung der zur Verfügung stehenden Ressourcen.

Systeme und Applikationen virtualisieren

Lösungen zur Systemvirtualisierung entkoppeln die physische Hardware vom Betriebssystem. Dies
ermöglicht es, mehrere – auch verschiedene – Betriebssysteme parallel auf einer Hardware
auszuführen. Aus Sicht des Betriebssystems stellt die Virtualisierungsumgebung eine standardisierte
Hardware dar, über die das Betriebssystem alleinig verfügen zu können glaubt. Greifen mehrere
Betriebssysteme auf die gleiche physische Ressource zu, koordiniert die Virtualisierungsumgebung
diese Zugriffe gemäß der vom Administrator festgelegten Regeln. Entsprechende Lösungen realisiert
der Systemvirtualisierungsanbieter VMware.

Bei der Applikationsvirtualisierung hingegen teilen sich mehrere Anwendungen ein Betriebssystem.
Hierbei wird eine Ebene eingezogen, die konfliktträchtige Bereiche des Betriebssystems in separaten
Umgebungen isoliert und damit die mehrfache Ausführung der Applikation ermöglicht. Die
Softgrid-Plattform, die Microsoft mit Softricity übernommen hat, stellt eine solche Lösung dar.

Im Rechenzentrum hat sich insbesondere die Systemvirtualisierung bereits seit einiger Zeit einen
festen Platz erobert. Der wachsende Kostendruck sowie steigende Anforderungen bezüglich
Flexibilität, Effizienz und Kontinuität sind mit klassischen Serverumgebungen immer schwieriger zu
bewältigen. Obwohl erst neun Prozent aller Unternehmen Servervirtualisierung im Produktiveinsatz
haben, sind weitere 17 Prozent der Unternehmen mit entsprechenden Pilotprojekten beschäftigt, und
35 Prozent aller Unternehmen betreiben erste Recherchen zum Thema (Quelle: Accenture CIO Research
2005). Bedenkt man, dass ein durchschnittlicher Server im 24-Stunden-Betrieb nur auf eine
Auslastung von zwei bis fünf Prozent kommt (Quelle: IBM Scorpion White Paper "Simplifying the
Corporate IT Infrastructure"), ist eine Partitionierung der Serverhardware zur Erhöhung der
Auslastung äußerst sinnvoll. Isolierung und Verkapselung der Betriebssysteme erhöhen die
Zuverlässigkeit und beschleunigen die Bereitstellung der virtuellen Infrastruktur.

Betrachtet man die Entwicklung der Datenverarbeitung und -visualisierung über die letzten 30
Jahre, so ist mit der Verbreitung des Server-based Computings (SBC) eine gewisse Parallele zu den
anfangs verwendeten Mainframes erkennbar: Nach einer Phase der Dezentralisierung der Rechenleistung
mit dem Personal Computer geht der Trend erneut in Richtung Zentralisierung von Daten und
Anwendungen mittels Terminalservern. Immer raschere Innovationszyklen, steigende Anforderungen an
Datensicherheit und ausufernde Support-Kosten sind nur einige der Gründe für diese Entwicklung.

Des Weiteren ist durch dieses Modell eine effektivere Organisation der im Rechenzentrum
angesiedelten Ressourcen erreichbar: Anwendungen werden zentral auf dem Terminalserver ausgeführt
und Daten ebenso zentral im Rechenzentrum gespeichert. Die Endgeräte auf dem Schreibtisch des
Benutzers sind zu Terminals degradiert, die nur noch Tastatur- und Mauseingaben an den
Terminalserver weitergeben und dessen Bildschirmausgabe visualisieren. Ist keine weitere lokale
Rechenleistung erforderlich, so bietet sich der Einsatz von Thin Clients (TCs) an, die auf solche
Terminalaufgaben spezialisiert sind. Neben einem deutlich geringeren Energieverbrauch gewährleisten
sie auch eine nochmals erhöhte Datensicherheit sowie vereinfachte Verwaltung.

Doch wo Licht ist, ist auch Schatten: Nicht alle Anwendungen eignen sich zur zentralen
Bereitstellung mittels Terminalservern. Dies erfordert im Terminalserverumfeld häufig den Einsatz
zusätzlicher Techniken für die Applikationsvirtualisierung, was die Komplexität und die Kosten der
Lösung in die Höhe treibt. Außerdem erfordert die erfolgreiche Umstellung auf SBC die breite
Akzeptanz der Endanwender. Im Hinblick auf die gewohnten PC-Features fällt die Umstellung auf eine
unter Umständen recht eingeschränkte SBC-Umgebung oft aufgrund individueller Vorbehalte schwer. Für
bestimmte Benutzertypen kommt SBC überhaupt nicht in Frage, da die hier gebräuchlichen Protokolle
RDP (Microsofts Remote Desktop Protocol) und ICA (das Citrix-Protokoll Independent Computing
Architecture) Multimedia nur eingeschränkt unterstützen. Und nicht zuletzt muss der Administrator
über die zu unterstützende Peripherie nachdenken, da sich bei weitem nicht alle lokal am PC
unterstützten Geräte auch in einer SBC-Umgebung betreiben lassen.

Virtueller Desktop

Stellt man sich die Frage, wie sich der Nutzen sowohl für die IT als auch für den Endanwender
optimieren lässt, so erscheint eine Kombination der Systemvirtualisierung mit dem Server-based
Computing als Erfolg versprechender Ansatz. Die Ausführung eines vollständigen
Desktop-Betriebssystems (zum Beispiel Windows XP Professional) nebst der vom Benutzer benötigten
Anwendungen innerhalb einer Virtualisierungsumgebung (zum Beispiel VMware ESX) ermöglicht die
Konsolidierung der Desktop-Infrastruktur.

Zu bedenken ist, dass Schätzungen von IBM zufolge
(www-5.ibm.com/de/umwelt/effizienz/produkte.html) für einen Desktop-Computer eine durchschnittliche
Auslastung von zwei bis fünf Prozent über den Arbeitstag anzunehmen ist. Daraus ergibt sich allein
durch diese Konsolidierung ein enormes Einsparpotenzial. Die schnelle und aufwandsarme
Bereitstellung eines neuen Desktop-Systems im Fehlerfall stellt ebenfalls einen nicht zu
unterschätzenden Vorteil dieser Lösung dar. Zudem profitiert häufig die Performance von
Unternehmensanwendungen erheblich von der Nähe des nunmehr im Rechenzentrum befindlichen virtuellen
Desktops zu zentralen Serverressourcen.

Natürlich muss der Benutzer irgendwie auf seinen im RZ befindlichen virtuellen Desktop zugreifen
können. Hier hilft der Umstand, dass Windows XP Professional eine Remote-Desktop-Verbindung von
einem entfernten Client über RDP ermöglicht. Ein idealerweise sehr schlankes Endgerät – also ein
Thin Client – übernimmt hier also die Fernsteuerung des Betriebssystems, das auf der virtuellen
Maschine läuft.

In einer solchen Umgebung sind die genannten Limitierungen der SBC- Protokolle zunächst
ebenfalls vorhanden. Die im Terminalserverumfeld präsenten Probleme mit der
Applikationskompatibilität gehören jedoch der Vergangenheit an. Darüber hinaus verfügt der Benutzer
anders als beim Terminalservereinsatz über die Flexibilität, seine Arbeitsumgebung persönlichen
Vorlieben anzupassen, sofern der Administrator dies gestattet. Doch auch im Fall des virtuellen
Desktops wollen oder können anspruchsvolle Anwender auf Multimedia und unterschiedlichste lokal
angeschlossene Peripherie nicht verzichten. Daher wird es bei diesen Protokollen über kurz oder
lang zu Verbesserungen bei der Multimedia- und Peripherieunterstützung kommen müssen.

Je nach Anwendungsfall – zum Beispiel in kleineren Umgebungen – kommt ein Unternehmen
gegebenenfalls noch mit einer 1:1-Zuordnung der virtuellen Desktops zu den Endgeräten und einem
Dauerbetrieb der zugeordneten virtuellen Maschinen aus. Als Alternative kann dem Anwender das
Starten und Stoppen seiner virtuellen Maschine ermöglicht werden. Dieser Ansatz kommt je nach
Umgebung jedoch möglicherweise nicht in Frage, da sich die Handhabung des virtuellen Desktops aus
Anwendersicht möglichst am gewohnten PC orientieren soll.

Um in vollem Umfang von diesem Lösungsansatz profitieren zu können, muss ein Unternehmen also
für den schonenden Umgang mit den Hardwareressourcen sowie eine automatisierte Zuordnung dieser
Ressourcen sorgen. Zu diesem Zweck kommt ein so genannter Connection Broker zum Einsatz. Gemäß den
vom Administrator festgelegten Richtlinien nimmt er in Echtzeit die Zuordnung von Benutzern zu
einzelnen virtuellen Maschinen oder zu Pools von VMs vor und sorgt dafür, dass sie je nach Bedarf
gestartet und gestoppt werden. Unternehmen wie Leostream und Propero bieten derartige Lösungen. Zur
Steuerung der virtuellen Maschinen einer VMware-Umgebung bedient sich Leo- stream beispielsweise
des SDKs (Software Development Kit) der VMware-Komponente Virtual Center. Dabei müssen der
Connection Broker und das Endgerät des Anwenders miteinander kommunizieren können. Nur so weiß das
Endgerät von der Existenz des Connection Brokers, und nur so kennt der Connection Broker den
Zustand des Endgeräts. Der verwendete TC muss also Citrix‘ Desktop Broker oder entsprechende
Lösungen wie die von Propero und Leostream unterstützen.

Mit virtuellen Desktops erhalten IT-Verantwortliche eine weitere Möglichkeit zur zentralisierten
Bereitstellung von Computing-Ressourcen. Diese stellt in vielen Fällen eine ernst zu nehmende
Alternative zum klassischen SBC mittels einer Terminalserver-Infrastruktur dar. Durch das
Bereitstellen einer vollständig isolierten Umgebung lassen sich auch Anwendungsfälle abdecken, die
mit einer klassischen Terminalserver-Infrastruktur nur beschränkt möglich sind. Zahlreiche
Initiativen wie die Virtual Desktop Infrastructure (VDI) von VMware oder die Dynamic Desktop
Initiative von Citrix (DDI, siehe Folgebeitrag) demonstrieren das breite Interesse an derartigen
Lösungen.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+