Virtual Desktops auf mobilen Endgeräten

Auf dem Tablett serviert

28. Januar 2011, 6:00 Uhr | Jörg Mecke, Leiter IT Consulting, Jörn Meyer Principal Consultant IT-Infrastruktur bei PC-Ware

Die Tablet-PCs sind mit der Erscheinung des Ipads in Mode gekommen. Vorbei ist die Ära der Netbooks, jener ultra-günstigen mobilen Kleinst-Notebooks. Die aktuellen mobilen Endgeräte - ob Smartphone, PDA oder Tablet - sind mit einer Performance versehen, wie wir sie noch vor wenigen Jahren nur in Desktop-PCs entdeckten. Diese neue Leistungsklasse portabler Geräte ist schick und erobert die Unternehmen schneller, als es seitens der IT geplant war. Desktop-Virtualisierung ermöglicht es, hier die zentrale Kontrolle zu behalten.

Mobile Devices sind insbesondere für Führungskräfte bereits zur „Commodity“ (alltägliches
Gebrauchsgut) geworden und gehören zur üblichen Ausstattung im Jahre 2010. Beispielsweise sind sie
häufig schon beim Autokauf im Handschuhfach von Oberklasse-Fahrzeugen zu finden. Denn sie sind dem
Benutzer auf Tagungen und Reisen ein nützlicher Begleiter. Darüber hinaus eröffnen sie ihm im
privaten wie im beruflichen Umfeld ganz neue multimediale Möglichkeiten. Ein Problem für die
IT-Abteilung: Zur Vielfalt der erhältlichen Geräte kommt hinzu, dass Anwender häufig ihre privaten
Endgeräte auch beruflich nutzen.

Zwangsläufig entsteht in Unternehmen so eine Heterogenität der IT-Infrastruktur, die es
aufzulösen gilt. Jedes Endgerät mit seinem individuellen und damit proprietären Betriebssystem ist
in die Infrastruktur zu integrieren, um die Nutzung von Unternehmensdaten und -anwendungen zu
ermöglichen. Während der Einsatz in der Vergangenheit auf Push-Mail beschränkt war, gehen heute die
Anforderungen weiter. So ist beispielsweise ein Zugriff auf Daten, Dokumente und Dashboards
erforderlich. Dabei dürfen die Daten nicht direkt auf den Geräten liegen. Denn wenn diese verloren
gehen, ist es mit der Datensicherheit vorbei. Und wenn ein Mitarbeiter das Unternehmen verlässt,
ist es aus rechtlicher wie aus physischer Sicht schwierig, auf das Endgerät, das dem ehemaligen
Mitarbeiters gehört, zuzugreifen und dort Daten zu löschen.

Gute Netzabdeckung und Flatrate-Angebote ermöglichen die verstärkte Nutzung von Online-Services.
Damit verändern sich auch die Arbeitsweisen der Mitarbeiter: Sie können selbst entscheiden, wann
und von wo aus sie ihre Aufgaben erledigen. Über Distanzen und Zeitzonen hinweg können Benutzer mit
Geräten, die weniger als ein Kilogramm wiegen, beispielsweise Daten erfassen, E-Mails versenden,
Präsentationen ansehen und Konstruktionspläne in 3D bearbeiten.

Integration durch Desktop-Virtualisierung

Wenn also Mitarbeiter ihre eigenen Geräte zur Verfügung stellen, warum sollten Unternehmen diese
nicht für solche Zwecke nutzen? Neben Initiativen wie „Bring Your Own Computer“ wäre zum Beispiel
auch ein „Bring Your Own Mobile Device“ denkbar. Iphones lassen sich genauso einbinden wie
Android-Mobiltelefone. Die IT-Abteilung integriert und abstrahiert das zugrunde liegende
Betriebssystem. Mithilfe von Desktop-Virtualisierung kann der Anwender per EDGE, HSPA, 3G oder
Wi-fi auf das Unternehmensnetz zugreifen.

Desktop-Virtualisierung bietet die Möglichkeit, von unterschiedlichen Endgeräten aus einen
virtualisierten Windows-Desktop im Rechenzentrum zu nutzen. Unternehmen sollten sich hierzu
insbesondere folgende Fragen stellen: Welche Herausforderungen gilt es hinsichtlich der
RZ-Infrastruktur zu lösen? Welche Hardwarekomponenten könnten oder sollten sinnvollerweise zum
Einsatz kommen? Wie sieht es mit der Skalierbarkeit und Verfügbarkeit aus, worauf muss man speziell
achten? Worin liegen die Gemeinsamkeiten und die Unterschiede der gängigsten Lösungen Citrix
Xendesktop und VMware View, worin liegen die Stärken und Schwächen dieser beiden Lösungen?

Komponenten der Infrastrukur

Die Basiskomponenten einer Virtual-Desktop-Infrastruktur bilden – wie bei der
Server-Virtualisierung – Host-Systeme, Hypervisoren und Storage-Systeme. An dieser Stelle enden die
Gemeinsamkeiten von Server- und Desktop-Virtualisierung allerdings häufig schon. Zusätzliche
Komponenten wie Broker-Server, Provisioning-Systeme und ein Remote-Display-Protokoll werden bei der
Server-Virtualisierung typischerweise nicht benötigt, sind bei der Desktop-Virtualisierung aber
essenziell. Ein Aspekt, der gerne mit der Desktop-Virtualisierung kombiniert wird, ist die
Virtualisierung von Applikationen – beispielsweise mittels VMware Thinapp oder Microsoft App-V.
Denn oft ist mit der Bereitstellung von Desktop-Betriebssystemen in Unternehmen auch die der
Applikationen für den Endanwender verbunden.

Die Bereitstellung virtueller Desktops im Rechenzentrum stellt eine neue Herausforderung für
Unternehmen dar. Die IT-Abteilungen können nur begrenzt auf bestehende Erfahrungen und vorhandene
Konzepte zurückgreifen und müssen in vielen Fällen umdenken. Die Desktop-Virtualisierung verwischt
die ehemals klaren Grenzen von dezentraler Client- und zentraler Server-Infrastruktur. Bei der
Planung einer Desktop-Virtualisierungs-Infrastruktur werden also grundsätzlich unterschiedliche
Kenntnisse und Vorgehensweisen benötigt. Deshalb sollte man zunächst klare Ziele definieren, wie
zum Beispiel:

  • Bereitstellung virtueller Desktops, die den Endanwendern mindestens die gleiche Qualität und
    Leistung bieten wie lokale Desktops,
  • unterbrechungsfreie Nutzung der virtuellen Desktops von unterschiedlichen Endgeräten mit einer
    konsistenten Benutzeroberfläche,
  • optimale, bedarfsgerechte Zuteilung und Nutzung von zentralen Systemressourcen zur nachhaltigen
    Kostenreduktion.

Faktoren für die Kaufentscheidung

Anhand dieser Ziele lässt sich eine Produktauswahl treffen und eine erste Planung realisieren.
Die Produktauswahl erfolgt typischerweise in mehreren Stufen, zumeist beginnend mit den
Basis-Komponenten Host-Systeme, Hypervisor und Storage-Systeme. Dabei sind eine Reihe von Punkte zu
berücksichtigen. In den Host-Systemen sollten Prozessoren Verwendung finden, die aktuelle
Virtualisierungsfunktionen (Intel VT, AMD-V) unterstützen oder generell für Virtualisierung
optimiert sind, zum Beispiel die Intel-Prozessoren Westmere und Nehalem. Bei der
Desktop-Virtualisierung erfolgt typischerweise ein „CPU-Overcommitment“, sodass mehrere Systeme
oder virtuelle Maschinen gleichzeitig auf einen physischen Prozessorkern zugreifen. Typischerweise
arbeiten virtuelle Desktops auch bei Windows 7 mit einer virtuellen CPU. Nur bei
High-Performance-Anwendungen wie CAD/CAM sollte man dem virtuellen Desktop eine zweite CPU
zuweisen.

Der Arbeitsspeicherbedarf eines virtuellen Desktops unterscheidet sich nicht von dem eines
physischen Desktops. Er wird durch das Betriebssystem und die zu nutzenden Applikationen definiert,
lässt sich durch aber Memory Overcommitment reduzieren. Allerdings können diese Techniken zu
Problemen bei der Nutzung von Applikationen führen und sind deshalb unbedingt intensiv zu
testen.

Das verwendete Storage-System muss in der Lage sein, die geforderte I/O-Leistung der Desktops zu
bieten. Die zu liefernde Leistung sollte man im Vorfeld der Planung durch Messungen auf vorhandenen
physischen Desktops ermitteln. Das verwendete Zugriffsprotokoll und das Speichernetzwerk müssen die
anfallenden Ein- und Ausgabe-Befehle pro Sekunde (Input/Output Operations Per Second, IOPS) zu den
Host-Systemen transferieren können und entsprechend dimensioniert sein.

Die Anforderungen an Host-Systeme, Hypervisor und Storage-Systeme im Rahmen einer
Virtual-Desktop-Infrastruktur sind gängig und erfordern eigentlich keine Festlegung auf einen
bestimmten Lösungsanbieter. Diese ergibt sich zumeist erst, wenn man sich die weiteren Komponenten
einer Virtual-Desktop-Infrastruktur anschaut und unter Berücksichtigung der definierten Ziele
bewertet. Dabei ist die Broker-Komponente zumeist zu vernachlässigen. Sie ist zwar essenzieller
Bestandteil der Infrastruktur, hat aber auf das Erreichen der definierten Ziele zumeist keinen
Einfluss. Wichtiger sind schon die verwendeten Provisioning-Verfahren, die für eine zügige und
fehlerfreie Erstellung der virtuellen Desktops zuständig sind. Je nach Definition müssen die
Desktops sogar auf Abruf (On-Demand) erzeugt werden, weshalb diesen Werkzeugen eine besondere
Bedeutung zukommt. Die beiden Marktführer Citrix und VMware setzen hier mit Xendesktop
beziehungsweise View auf unterschiedliche Techniken.

Citrix versus VMware

Citrix nutzt ein Streaming-Verfahren, das ein zentral gespeichertes generalistisches
Betriebssystem-Abbild, ein so genanntes Golden Image, beim Booten vervielfältigt. Daraus
resultieren Vorteile wie die sehr einfache Verwaltbarkeit und die hervorragenden
Skalierungsmöglichkeiten. Des Weiteren wird das verwendete Storage-System zum Teil von anfallenden
IOPS entlastet, was zum Beispiel lokale Storage-Lösungen im Rahmen der Desktop-Virtualisierung
durchaus denkbar macht. Nachteile dieser Variante sind die starke Abhängigkeit vom Netzwerk sowie
die dedizierten Provisioning-Systeme, ohne die ein Zugriff auf die virtuellen Desktops nicht
möglich ist. Diese sollte man daher im Rahmen einer Planung gesondert betrachten.

VMware setzt auf ein Provisioning-System, das ebenfalls ein zentral gespeichertes Golden Image
vervielfältigt, dieses aber nicht per Netzwerk-Stream bereitstellt, sondern auf dem Storage-System
einen Klon erzeugt. Vorteile dieser Lösung sind die sehr gute Integration der Lösung in die
etablierten VMware-Verwaltungswerkzeuge sowie die Unabhängigkeit der Bereitstellung von
zusätzlichen Systemen. Des Weiteren lässt sich der benötigte Speicherplatz auf dem zentralen
Storage durch Deduplizierung erheblich verringern. Nachteilig ist die starke Abhängigkeit vom
Storage-System, das mit der Erzeugung der Klone zusätzlich belastet wird, was speziell bei der
On-Demand-Bereitstellung eine Herausforderung darstellen kann. Das gesamte Design der VMware-Lösung
ist zudem auf den Einsatz eines zentralen Storage-Systems zugeschnitten.

Die wichtigste Komponente für das Erreichen der definierten Ziele ist jedoch das verwendete
Remote-Display-Protokoll in Verbindung mit den bereitgestellten Clients. Hierauf basiert meist die
Produktentscheidung, denn dieser Faktor ist ausschlaggebend für die Benutzererfahrung und damit für
das Urteil „Go“ oder „No-Go“ hinsichtlich der Einführung einer Virtual-Desktop-Infrastruktur. Denn
nur wenn die Benutzererfahrung identisch oder besser ist als bisher mit lokalen Desktops,
akzeptieren die Endanwender die Lösung.

Citrix hat hier sehr gute Arbeit geleistet und die Client-Software Citrix Receiver sowie das aus
dem Citrix-Xenapp-Umfeld bekannte HDX-Protokoll quasi ohne Funktionsverlust auf die neuen mobilen
Plattformen wie Apple IOS oder Android portiert. Damit lassen sich virtuelle Desktops ohne Probleme
zum Beispiel auch über schmalbandige Mobilfunkverbindungen verwenden. Dabei ist aber zu bedenken,
dass der innerhalb des Desktops genutzte Inhalt die Qualität der Verbindung bestimmt. Stellt die
Nutzung von relativ statischen Anwendungen wie zum Beispiel Office-Applikationen auch bei
schmalsten Bandbreiten meist kein Problem dar, so erfordert die Übertragung bewegter Bilder oder
von Audio-Daten deutlich mehr Bandbreite.

Dies gilt natürlich auch für die anderen Anbieter wie Konkurrent VMware, der aktuell einen
PCoIP-fähigen Ipad-Client für den Zugriff auf VMware-View-Desktops entwickelt. Bis dieser verfügbar
ist, können sich View-Nutzer mit der Zugriffssoftware Wyse Pocket Cloud behelfen, die sich mittels
Microsofts RDP-Protokoll mit den virtuellen View-Desktops im Rechenzentrum verbindet. Statische
Inhalte oder Applikationen sollten sich auch damit gut nutzen lassen.

Die Verkürzung von An- und Abmeldezeiten ist durch Desktop-Virtualisierung relativ einfach
erreichbar. In Verbindung mit „Instant-on“-Geräten wie aktuellen Tablets oder Zero Clients erfahren
die Endbenutzer eine ganz neue Geschwindigkeit. Auch der Wechsel auf unterschiedliche Endgeräte ist
dadurch möglich. So lassen sich Meetings ohne Probleme auf dem Tablet in der Unternehmens-Lounge
bei einem Kaffee weiterführen, wenn der Besprechungsraum belegt ist.

Als Fazit lässt sich festhalten, dass die Symbiose von mobilen Endgeräten und
Desktop-Virtualisierung den Unternehmen die Chance eröffnet, flexibel mit den Anforderungen
reisender und flexibel arbeitender Mitarbeiter umzugehen. Fast alle denkbaren Endgeräte lassen sich
einbinden und damit auch zentral verwalten sowie mit Patches und Software versorgen. Und dabei
kommt die Sicherheit nicht zu kurz, während die Administration homogen und somit einfach
bleibt.

transfer

transfer


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+