Migration zu virtuellen Desktops

Fußangeln auf dem Weg ins Virtuelle

25. Januar 2012, 7:00 Uhr | Thomas Berger/wg, Architect Worldwide Consulting Solutions bei Citrix Systems in Schaffhausen (Schweiz)

Virtuelle Desktops sind ihren physischen Pendants in vielen Belangen überlegen, und der begonnene Trend zur Virtualisierung der Desktops wird sich auch weiterhin fortsetzen. Jedoch ist der Wechsel von einer dezentralen physischen IT-Landschaft in Richtung einer zentralisierten virtuellen Infrastruktur leider nicht so einfach wie von den meisten Werbebotschaften der Anbieter suggeriert.In der Tat kann eine überstürzte Migration mit mangelhafter Planungsphase einen großen finanziellen Schaden anrichten und das Wohlwollen sowie die Akzeptanz der Benutzer verspielen. In einem weniger schlimmen Fall würden nur die bestehenden Probleme in das Rechenzentrum verlagert und die Umgebung ein wenig verkompliziert. Eine optimale Lösung würde aber wohl auch in diesem Szenario nicht zustande kommen.

Der Schlüssel zu einer erfolgreichen Migration liegt in einer intensiven Planungs- und Vorbereitungsphase. Eingehen sollte man dabei im ersten Schritt auf drei Schwerpunkte:

Verstehen der Techniken zur Desktop-Virtualisierung,

Erfassen der Anforderungen der Benutzer, Geschäftsleitung und IT-Management sowie

Analyse der bestehenden IT-Landschaft und Erarbeiten der daraus resultierenden technischen Anforderungen.

Verstehen der Techniken

So profan dieser Schwerpunkt auch erscheinen mag, ist er in Zeiten, in denen eine Vielzahl an Herstellern mit mindestens ebenso vielen verschiedenen Techniken und Verfahren um die Gunst der Kunden am Desktop-Virtualisierungsmarkt kämpft, von zentraler Bedeutung. Dies resultiert daraus, dass jeder Hersteller eine etwas andere Vorstellung von virtualisierten Desktops hat. Zwar sind sich die Konkurrenten in zunehmenden Maße einig, dass eine Virtualisierung der Desktops als Selbstzweck keinen Sinn ergibt und Ziel vielmehr die Schaffung eines schlankeren und effizienteren Managements der Desktops sein sollte; jedoch herrscht bei Ansichten über den Weg dahin naturgemäß weit weniger Einigkeit. Grundlegend kann man drei Techniken unterscheiden, mit deren Hilfe die IT-Organisation dem Benutzer einen virtuellen Desktop bereitstellen kann:

Hosted Shared Desktop: Mehrere Benutzer teilen sich ein zentrales Server-System, das den Benutzern jeweils einen Desktop zur Verfügung stellt (zum Beispiel Microsoft Remote Desktop Services, Citrix Xenapp, Quest Software Vworkspace),

Hosted VDI (Virtual Desktop Infrastructure): Jeder Benutzer erhält an zentraler Stelle ein eigenes virtuelles System, das allein für den jeweiligen Benutzer zur Verfügung steht (zum Beispiel VMware View, Citrix Xendesktop, Oracle VDI)

Client-Side VDI: Jeder Benutzer erhält ein eigenes virtuelles System, bei dem jedoch nur die Images zentral verwaltet werden. Das Ausführen des Desktops erfolgt dezentral auf dem physischen Rechner des Benutzers (zum Beispiel Citrix Xenclient, Virtual Computer Nxtop oder Microsoft Med-V).

Hinzu gesellt sich eine Flut weiterer Techniken, die zum Teil das Management der virtuellen Desktops vereinfachen - wie zum Beispiel Microsoft App-V oder Citrix Personal Vdisk (vormals Ringcube) - oder für spezielle Nischen maßgeschneidert wurden. Naturgegeben verfügen alle Lösungen über spezifische Eigenschaften, die sich je nach Unternehmenslandschaft vor- oder nachteilig auswirken. Ein goldener Lösungsweg, der sich für alle Umgebungen und Szenarien gleichermaßen eignet, ist bis dato noch nicht in Sicht. Vielmehr ist das Kombinieren verschiedener Techniken und Verfahren am erfolgversprechendsten. Daher ist es unabdingbar, vor jedem Desktop-Virtualisierungsprojekt eine ausführliche Analyse der Produkte durchzuführen und Detailwissen aufzubauen, um die Erkenntnisse der im folgenden erläuterten Schritte erfolgreich in Technik übersetzen zu können. Ein weiterer, nicht minder wichtiger Schritt besteht aus der Analyse der internen Ziele und Anforderungen an eine Virtual-Desktop-Infrastruktur.

Analyse der Ziele und Anforderungen

Bevor ein Projekt eine detaillierte Planungsphase erreicht, sollte das Projektteam sicherstellen, dass es die Anforderungen des Kunden kennt. Was in offenen Märkten eine Binsenweisheit darstellt, ist leider noch nicht in allen internen IT-Abteilungen selbstverständlich und aus diesem Grunde hier erwähnt.

Ziel dieses Schrittes ist zu verstehen, was ein Benutzer von seinem Arbeitsplatz erwartet und unbedingt benötigt, um die tägliche Arbeit leisten zu können. Wichtig ist hier die bewusste Trennung zwischen dem unbedingten Muss und dem "Nice to have". Mithilfe dieser Einteilung lässt sich dann im Nachgang einfacher festlegen, wie viel Selbstverwirklichung man den Mitarbeitern am Desktop zugesteht. Als Kriterien können dabei beispielsweise dienen: Offline-Fähigkeit, die Möglichkeit, Anwendungen selbst zu installieren, die Anbindung spezieller Peripheriegeräte oder auch schneller und einfacher Zugang zu den benötigten Informationen.

Natürlich ist es nur in sehr seltenen Fällen möglich, eine derartige Erhebung bei allen potenziellen Benutzern durchzuführen. Daher greift man für diesen Schritt häufig auf eine kleine Gruppe von Key Usern, also Benutzern mit Erfahrung und einer gewissen IT-Affinität, zurück. Ein angenehmer Nebeneffekt des Involvierens der Anwender ist, dass ein Projekt schon zum Zeitpunkt des Rollouts über wohlgesinnte Sponsoren "im Feld" verfügt.

Weiterhin ist wichtig, die Anforderungen des Managements sowohl aus der Geschäftsleitung als auch aus der IT-Abteilung einer Firma zu verstehen. Hier geht es weniger um einzelne Features einer Lösung als um das Einpassen der Desktop-Virtualisierung in die Unternehmens- sowie IT-Strategie. Kriterien können dabei die Sicherheit, Flexibilität, Erweiterbarkeit oder initiale Kosten und Kosten für den laufenden Betrieb sein.

Der schwierigste Teil der Anforderungsanalyse ist jedoch das Herausarbeiten der Konsensentscheidungen (Sweet Spots) sowie das Zusammenführen der verschiedenen Anforderungen zu einem gemeinsamen Pflichtenheft. Sollte im Vorfeld kein gewichtiger Management-Sponsor oder besser noch ein Lenkungsausschuss für das Projekt gefunden oder nominiert worden sein, kann dies zu einer wahren Herkulesaufgabe werden. Denn gerade bei einem solchen Projekt, das durchaus das Potenzial besitzt, die IT eines Unternehmens oder zumindest Teile davon von Grund auf zu verändern, gibt es viele Möglichkeiten, mit liebgewonnenen Besitzständen Einzelner zu kollidieren.

Ein weiterer sehr wichtiger und auch umfangreicher Aspekt bei der Planung von Desktop-Virtualisierungsprojekten ist das Erfassen der technischen Anforderungen. Dabei sollte man sich im Wesentlichen mit zwei Themengebieten befassen: mit Benutzern und Anwendungen. Besonders wichtig sind die folgenden Aspekte:

Benutzerverhalten: Es ist notwendig zu verstehen, wann sich welche Gruppen von Benutzern an- und abmelden, wie viele Personen diesen Gruppen angehören und mit welcher Gleichzeitigkeit dieser unterschiedlichen Anwender zu rechnen ist. Gerade bei großen Unternehmen mit einer weit verteilten Benutzerbasis ist auch die Frage nach der Zeitzone der Benutzergruppen von Interesse. Denn anders als in den meisten Szenarien mit physischen Desktops können virtuelle Desktops einfach von mehreren Anwendern verwendet werden. Dies spart Ressourcen und vor allem Platz im Rechenzentrum, setzt aber eine genaue Kenntnis des Benutzerverhaltens voraus, um Kapazitätsengpässe zu verhindern. Dieses Wissen ist auch notwendig, um die zugrunde liegende Infrastruktur den zu erwartenden Lastspitzen anpassen zu können. Gerade beim Wechsel von einer dezentralen Infrastruktur ist die Planung von Lastspitzen von äußerster Wichtigkeit, da man hier nur bedingt auf Erfahrungswerte zurück-greifen kann.

Ressourcenbedarf: Wie sich in den meisten Umgebungen bereits beim Erfassen der weichen Anforderungen zeigen wird, ist es äußerst schwierig, alle Anwender "unter einen Hut zu bringen". Ein ähnliches Bild zeigt sich meist auch bei Erfassen des Ressourcenbedarfs. Neben dem Erarbeiten der "üblichen Verdächtigen" wie CPU und Arbeitsspeicherbedarf, die für die grundlegende Infrastrukturplanung unabdingbar sind, kommt es in der Welt der virtuellen Desktops auch auf die benötigte Grafikleistung sowie die Auslastung der Storage-Systeme an. Gerade das Thema Storage - wie oft und mit welcher Intensität greift ein Benutzer oder genauer seine Anwendung auf die Festplatten zu? - ist von zentraler Bedeutung für jedes Desktop-Virtualisierungsprojekt. Denn sollte hier ein Fehler passieren - sei es bei der Planung oder beim Erfassen der aktuellen Nutzung - kann dies gravierende Auswirkungen auf alle virtuellen Desktops haben.

Der Hintergrund ist recht einfach erläutert: Werden die Anforderungen zu gering eingeschätzt, ist das Storage-System also unterdimensioniert, werden die Anfragen der virtuellen Desktops das Speichersystem zu Spitzenzeiten überfordern. Die Folge sind drastisch erhöhte Schreib- und Leselatenzen, was sich wiederum sofort negativ auf die Performance und Stabilität der Desktops auswirkt. Werden die Anforderungen überschätzt und das Storage-System dementsprechend überdimensioniert, stimmt zwar die Performance, aber der Business Case der gesamten Lösung gerät in Gefahr.

Mithilfe einer Korrelation von Benutzerverhalten und Ressourcenbedarf kann der Verantwortliche eine grundlegende Kapazitätsplanung vornehmen. Zu beachten ist allerdings, dass jede Projektion der erarbeiteten Daten immer einen gewissen Unsicherheitsfaktor beinhaltet und die Annahmen daher während einer Pilotphase unbedingt verifiziert werden sollten.

Das Erfassen der für diesen Rechenschritt benötigten Messwerte kann allein schon durch die Anzahl der Messpunkte recht herausfordernd sein, stützt man dies allein auf Windows-Bordmittel. Verschiedene Hersteller aus dem Desktop-Virtualisierungsumfeld haben aus diesem Grund spezialisierte Tools veröffentlicht, die sowohl das Sammeln als auch das Auswerten der Daten stark vereinfachen. Einen guten Ruf in diesem Umfeld haben sich das Assessment and Planning Toolkit von Microsoft, Stratusphere Fit von Liquidware Labs und Systrack Virtual Machine Planner von Lakeside Software erarbeitet.

Den zweiten Schwerpunkt beim Erfassen der technischen Anforderungen stellen die Anwendungen dar. Dabei spielen die folgenden Aspekte eine besondere Rolle:

Nutzung der Anwendungen: Eine generelle Inventarisierung der Anwendungen gibt es in vielen, eine Aufschlüsselung der Anwendungen nach Benutzergruppen oder Rollen in manchen Unternehmen, doch eine Nutzungsstatistik findet man nur sehr selten. Dabei sind gerade die letzten beiden Punkte von entscheidender Bedeutung für eine Planung der virtuellen Desktops sowie einer Strategie zum Verteilen und Pflegen der Anwendungen selbst. Den ohne diese Daten gleicht der Versuch, die Anzahl sowie den genauen Inhalt der verschiedenen Typen virtueller Desktops festzulegen, eher einem Blindflug, und ein ständiges Nachsteuern während der Rollout-Phase ist nahezu vorprogrammiert.

Kompatibilität: Meist tauschen Unternehmen im Zuge einer Migration auf virtuelle Desktops auch gleich das zugrunde liegende Betriebssystem. Dabei stellt sich natürlich die Frage, ob die bestehenden Anwendungen auch nach diesem Wechsel noch einwandfrei funktionieren, oder ob Nachbesserungen oder gar eine Migration notwendig werden. Da große Unternehmen meist über hunderte, wenn nicht gar tausende Anwendungen verfügen, kann ein kompletter Kompatibilitäts-Check sehr zeitaufwändig ausfallen. Abhilfe schaffen zum Glück auch hier spezialisierte Hersteller, deren Software (teil-)automatisierte Tests ermöglichen. Die Funktionsweise dieser Tools ist recht einfach erklärt: Sie zerlegen die zu analysierende Anwendung in ihre Bestandteile, analysieren diese einzeln und gleichen die Ergebnisse mit einer zentralen Datenbank ab. Geprüft wird dabei je nach verwendetem Tool und Lizenz nicht nur die Kompatibilität mit einem neuen Betriebssystem, sondern auch ein möglicher Wechsel von 32- auf 64-Bit oder auch die Verwendung alternativer Mechanismen zum Verteilen von Anwendungen wie zum Beispiel Anwendungsisolation und -Streaming. Bekannte Tools in diesem Genre sind das Application Compatibility Tool von Microsoft, Apptitude von App-DNA (jüngst von Citrix übernommen) sowie Changebase AOK, das wiederum erst seit Kurzem zu Quest gehört.

Abhängigkeiten: Ein letzter Schwerpunkt beim Erfassen der Applikationsanforderungen ist die Analyse der Abhängigkeiten. Zum einen gilt es herauszufinden, welche Anwendungen einander bedingen. Typische Beispiele sind hier die Abhängigkeit der SAP GUI von Excel zum Erstellen von Reports oder aber auch des Internet Explorers vom Acrobat Reader zum Anzeigen von PDFs auf Webseiten. Diese Information ist gerade in Szenarien, bei denen man mit Anwendungsisolation oder einer anderen Entkoppelung der Anwendung vom Betriebssystem arbeiten will, von großem Interesse. Denn hier muss das Projektteam die Beziehungen zwischen Anwendungen explizit konfigurieren.

Der zweite Aspekt der Abhängigkeiten ist die Beziehung eines Programms zu allfälligen Backend-Systemen, sei es nun eine Datenbank oder nur ein Fileshare. Gerade wenn man im Zuge der Migration auf virtuelle Desktops auch eine Zentralisierung durchführen will, ist eine exakte Kenntnis dieser Beziehungen unabdingbar.

Fazit

Auch wenn manchem eine derart umfangreiche Analyse- und Planungsphase auf den ersten Blick übertrieben erscheinen mag, zahlt sich jede dafür verwendete Arbeitsstunde in den weiteren Arbeitsschritten wie Design, Rollout oder auch im Betrieb schnell wieder aus. Auch muss man sich vor Augen halten, dass eine Migration von verteilten physischen Desktops hin zu zentralen virtuellen Desktops die IT eines Unternehmens und auch die darin herrschenden Paradigmen grundlegend zu ändern vermag. Ein Unternehmen sollte daher hier keine Mühen scheuen, denn die in diesem Zuge erstellen Grundlagen bilden das Fundament der IT von morgen.

Die Anforderungen können sich in Theorie und Praxis deutlich unterscheiden. Bild: Citrix

Stratusphere Fit von Liquidware Labs dient der erleichterten Kapazitätsplanung für Virtual-Desktop-Projekte. Bild: Citrix

Tools wie Apptitude ermitteln die Optionen, Applikationen in zentralisierte Client-Umgebungen zu überführen. Bild: Citrix
LANline.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Yes Telecom Germany GmbH

Weitere Artikel zu Electronic Partner

Matchmaker+