Dieser zweiteilige Artikel befasst sich mit den verschiedenen Methoden zentralisierter Anwendungsbereitstellung (Application Delivery). Nachdem der erste Teil in LANline 03/2007 die klassische Softwareverteilung dem Server-based Computing (SBC) gegenübergestellt hat, widmet sich Teil zwei dem heute vorherrschenden Hype rund um Streaming- und Virtualisierungsansätze.
Vmwares Virtual Desktop Infrastructure (VDI) ist eine relative neue Methode, um Anwendern
zentrale Rechenleistung in Form dedizierter virtueller Desktops zur Verfügung zu stellen. Die Idee
dahinter ist einfach: Warum nicht jedem Anwender anstelle eines lokalen PCs einen Desktop auf einer
virtuellen Maschine im Rechenzent-rum bereitstellen? Die Anwender greifen auf die virtuellen
Desktops standardmäßig von ihrem PC oder TC (Thin Client) per RDP (Remote Desktop Protocol) zu.
Gegenüber lokalen Desktops bietet dieser Ansatz eine Vielzahl von Vorteilen: erhöhte Sicherheit,
einfacheres Management, leichtere Einhaltung gesetzlicher Richtlinien, bessere Optionen für
Disaster Recovery und reduzierte Betriebskosten. Die Vorteile und das Betriebsmodell von VDI sind
mit dem SBC-Ansatz vergleichbar, jedoch steht im Gegensatz zum SBC-Modell jedem Anwender ein
vollständiger Desktop zur Verfügung. Auf den ersten Blick scheinen die Vorteile des
dezentralisierten, traditionellen Modells mit den Vorteilen des zentralisierten SBC-Modells zur "
Best-of-"Lösung zu verschmelzen.
Da VDI- anders als SBC-Anwender mit einem dedizierten XP- oder Vista-Betriebssystem arbeiten
(Bild 1) und dieses nicht wie im SBC-Modell mit anderen Benutzern teilen, ist ein höchster Grad an
individueller Konfiguration des virtuellen Desktops möglich. Gerade bei Knowledge-Workern und
Power-Usern ist dies ein wichtiges Kriterium – unter anderem um individuelle Anwendungen zu
installieren, aber auch, um bei Bedarf einen Neustart durchführen zu können.
VDI bietet die Möglichkeit, analog zum traditionellen Modell eine Vielzahl verschiedener
Anwendungen, Anwenderprofile und -typen zu kombinieren. Anwendungen, die in einer SBC-Umgebung
nicht lauffähig sind oder die Probleme verursachen, stehen der Anwenderschaft problemlos via VDI
zur Verfügung. Ob dies aus Administrationssicht sinnvoll ist, ist eine andere Frage.
In Hinblick auf das Anwendungsmanagement ist jedoch zu beachten, dass jeder individuell
konfigurierte virtuelle Desktop auch ein individuelles Softwaremanagement benötigt – wie ein PC im
traditionellen Fat-Client-Modell. Oft ist er eins zu eins mit dem Anwender verbunden, meist über
die IP-Adresse. Diese Methode ist sehr ressourcen- und kostenintensiv. Deshalb verfolgt man eher
den Weg, einen so genannten "Pool" identischer Desktops bereitzustellen, die dann über eine
Load-Balancing-Funktion dynamisch für die Anwender bereitstehen. Hierzu benötigt der Administrator
jedoch Verwaltungswerkzeuge, die heute erst in rudimentärer Form auf dem Markt sind.
Die Bereitstellung dedizierter Desktops macht sich jedoch auch massiv an der Leistungsfähigkeit
der Server bemerkbar: In der Praxis können in einer VDI-Umgebung im Vergleich zur SBC-Umgebung nur
zirka 30 Prozent der Anwender bei vergleichbarer Serverhardware bedient werden. Zum heutigen
Zeitpunkt lässt das VDI-Modell wichtige Komponenten für die Authentisierung der Anwender, Single
Sign-on und das zentrale Management der virtualisierten Desktops vermissen.
Diese Lücken schließt SBC-Marktführer Citrix mit dem Citrix Desktop Broker. Der angekündigte
Citrix Desktop Server ermöglicht außerdem den direkten Zugriff auf die virtuellen XP-Desktops über
das schlanke ICA-Protokoll (Independent Computing Architecture), sodass der Double-Hop-Mechanismus
(RDP über ICA) entfällt. Angesichts des notwendigen Technik- und Lizenzeinsatzes stellt sich jedoch
folgende Frage: Bis zu welcher Stelle ist das Konzept wirtschaftlich und technisch tragfähig, um
die gewonnen Vorteile zu rechtfertigen? Sicherlich nur für Arbeitsplätze, bei denen es keine andere
Wahl gibt. Für einen unternehmensweiten Ansatz ist die Lösung definitiv noch zu unausgereift.
Durch den Einsatz von Lösungen wie Microsoft Softgrid, Citrix Streaming Server oder weiterer
Angebote wie Altiris SVS, Appstream und des Wyse Streaming Managers bieten sich neue interessante
Lösungsansätze für die zentrale Bereitstellung von Anwendungen.
Anwendungen, die der Admin traditionell auf jedem Endgerät installiert und konfiguriert, kommen
bei Softgrid nicht mehr direkt im Betriebssystemkontext, sondern in einer speziellen
Laufzeitumgebung zur Ausführung. Die Laufzeitumgebung simuliert gegenüber der Anwendung die
Existenz eines vollständigen Betriebssystems und isoliert sie dadurch vollständig vom OS und
anderen auf dem Endgerät installierten Anwendungen. Konflikte mit anderen Anwendungen oder dem
Betriebssystem sind daher ausgeschlossen. Durch die Standardisierung der Laufzeitumgebung lässt
sich die Anwendung ohne Anpassung auf jedem anderen Windows-basierten Endgerät in gleicher Weise
ausführen.
Zuvor gilt es allerdings, die Anwendung für die Ausführbarkeit in der Laufzeitumgebung zu
paketieren – bei Softgrid nennt sich dieser Prozess "Sequencing". Diese Vereinfachung der
Anwendungsbereitstellung löst viele Probleme des Anwendungsmanagements von PCs oder SBC-Umgebungen.
Die "initiale Installation" der Anwendung in der Laufzeitumgebung ist mehr oder weniger ein vom
Endgerät initiierter Kopiervorgang (Streaming), der die in mehrere Sequenzen zerlegte Anwendung in
einen lokalen Festplatten-Cache kopiert und von dort startet. Durch die Ausführung der Anwendung in
der Laufzeitumgebung ist mit zirka fünf Prozent Leistungseinbuße des Client-Geräts zu rechnen. Wie
dem Bild 2 zu entnehmen ist, beseitigt der Einsatz dieser Virtualisierungstechnik die größten
Probleme in Sachen Anwendungsbereitstellung sowohl des SBC- als auch des ESD-Umfelds (Electronic
Software Deployment, Softwareverteilung).
Das einfache Konzept bietet eine Vielzahl von Vorteilen und hat weitreichende Implikationen auf
die Methodik der Anwendungsbereitstellung. Ist eine Anwendung innerhalb der
Softgrid-Laufzeitumgebung einmal getestet, läuft sie in jeder weiteren Laufzeitumgebung unabhängig
vom Endgerätetyp in gleicher Weise. Damit entfallen aufwändige Anwendungstests aufgrund
unterschiedlicher Hardware- oder Betriebssystemumgebungen (Regression Testing). Gleiches gilt für
nachgelagerte Updates und Upgrades der Anwendung. Diese werden durch den integrierten
Streaming-Mechanismus nach Bedarf (on demand) in die lokal gecachte Anwendung integriert. Auch ein
Rollback im Problemfall ist möglich.
Trotz vieler Vorzüge hat diese Art der Anwendungsbereitstellung auch ihre Nachteile. So lassen
sich beispielsweise direkt mit Gerätetreibern verbundene Anwendungen – Antivirenprogramme,
IPSec-VPNs, Druckertreiber etc. – nicht innerhalb der Laufzeitumgebung ausführen. Eine
Virtualisierung ist dort nicht möglich. Gleiches gilt für Anwendungen, die direkt mit dem
Betriebssystem kommunizieren, zum Beispiel der Internet Explorer, IE-Plug-ins, Win-dows Media
Player etc. Zudem ist bei der Versorgung von Endgeräten in Niederlassungen oder im ständigen
Außendienst zu beachten, dass eine Anwendung oder ein Anwendungsset nach dem Sequencing-Vorgang
leicht ein Datenvolumen von mehr als einem GByte annehmen kann. Eine solche Datenmenge kann man nur
bedingt per LAN/WAN an alle Endgeräte innerhalb des Unternehmens verteilen. Hier muss die
IT-Abteilung andere Wege beschreiten, etwa per Versand einer DVD.
Grundsätzlich ist die Softgrid-Methode auf Desktops, Laptops und in SBC-Umgebungen einsetzbar.
Bislang verwendet man sie in SBC-Umgebungen primär zu Isolierung einzelner problembehafteter
Anwendungen und weniger zur Optimierung der Anwendungsbereitstellung. Gründe hierfür sind unter
anderem der zusätzliche Aufwand an Hardware, die zusätzlichen Kosten für Softgrid-Lizenzen und
natürlich die trotz aller Vereinfachung steigende Komplexität der Gesamtumgebung durch die
Integration einer weiteren Basistechnik.
Auch Citrix hat frühzeitig die Möglichkeiten einer Virtualisierung von Anwendungen und deren
Nutzen in einer modernen Application-Delivery-Plattform erkannt. Citrix‘ im Hause entwickelte
Anwendungsvirtualisierungs- und Streaming-Lösung soll im ersten Halbjahr 2007 auf den Markt kommen.
Da sich dieses "Projekt Tarpon" derzeit noch im Beta-Stadium befindet, wird an dieser Stelle auf
eine detaillierte Betrachtung verzichtet.
Bekannt ist, dass die erste Version zunächst nur für Server verfügbar sein soll und zusammen mit
dem nächsten Release 4.5 des Citrix Presentation Servers ausgeliefert wird. Erste Tests der
Beta-Version zeigen grundsätzlich einen vergleichbaren Ansatz zu Softgrid, jedoch mit stärkerer
Integration in die Citrix-Welt.
Ein konkretes Beispielszenario kann aufzeigen, wie sich die dargestellten Techniken optimal
kombinieren lassen. Mit Sicherheit gibt es eine Vielzahl weiterer Szenarien, bei denen der
Lösungsansatz gegebenenfalls anders ausfällt. Entscheidend sind letztendlich die Anforderungen des
Unternehmens, das vorhandene Know-how und die Innovationsbereitschaft hinsichtlich neuer Techniken
und Lösungsansätze.
In unserem Beispiel will ein Großunternehmen mit zahlreichen internationalen Standorten seine
umfangreiche Server- und Anwendungslandschaft konsolidieren und Betriebskosten sowie Betriebsrisiko
reduzieren. Task-Worker stellen 85 Prozent der Belegschaft, Knowledge-Worker zehn Prozent und
Power-User fünf Prozent. Das Unternehmen stellt hohe Anforderungen bezüglich Sicherheit und
Business Continuity (Wahrung des dauerhaften Geschäftsbetriebs), da es hochgradig von der IT
abhängig ist. Eine überschaubare Anzahl an Power-Usern benötigt Zugriff auf Spezialanwendungen
sowie vereinzelt auch auf Softwareentwicklungsumgebungen. Die stationären Anwender überwiegen im
Verhältnis 90:10 gegenüber den mobilen. Diese Anforderungen findet man oft im Bereich Banken,
öffentliche Verwaltung und in der Automobilindustrie.
Aufgrund des hohen Anteils an Task-Workern (also vieler gleichartiger Arbeitsplätze), der
geforderten geringen TCO (Total Cost of Ownership, Gesamtbetriebskosten) und Senkung des
Betriebsrisikos, der Vielzahl an Standorten, der Konsolidierung der Anwendungs- und
Serverlandschaft sowie zur Erhöhung der Sicherheit bietet sich der strategische Einsatz einer
zentral verwalteten Application Delivery-Umgebung mit SBC (Terminalserver und Citrix) an. Die
vielen internationalen Niederlassungen lassen sich problemlos in die Application-Delivery-Plattform
integrieren, und der Datenbestand liegt zentral im sicheren Rechenzentrum. Bei ausreichendem
Automationsgrad des Serverbetriebs lassen sich Change- und Release-Management-Prozesse optimal
abgedecken, ITIL-Prozesse direkt abbilden und folglich die Business Continuity sicherstellen.
Außerdem lassen sich so die Betriebskosten massiv reduzieren und strenge SLAs (Service-Level
Agreements) einhalten. Abhängig von der Änderungshäufigkeit der zentral bereitgestellten
Anwendungen und dem geforderten Grad der Revisionssicherheit kann der serverseitige Einsatz von
Anwendungsvirtualisierung wie Softgrid oder Citrix Streaming Server in Erwägung gezogen werden.
Knowledge-Worker und Power-User erhalten mittels VDI dedizierte XP-Desktops. Bei mobilen
Anwendern bietet sich die Möglichkeit, die lokal benötigte Anwendungssoftware via Streaming oder
ESD auf dem aktuellen Stand zu halten. Dies ist aber nur interessant für Anwendungen, die keine
Backend-Datenbank für den Betrieb benötigen. Sollte dies der Fall sein, erfordert dies den Zugriff
auf zentral bereitgestellte Anwendungen mittels des schlanken ICA-Protokolls via WLAN oder
GPRS/UMTS.
Der Markt bietet eine Vielzahl etablierter wie auch neuer IT-Methoden zur Erfüllung
verschiedener Anforderungen an die Applikationsbereitstellung. Der zentralisierte Ansatz hat sich
in vielen Projekten bewährt und zur wirtschaftlichen Application-Delivery-Lösung entwickelt.
Grundsätzlich sollten neue Techniken beobachtet und das in ihnen steckende Potenzial für das eigene
Unternehmen bewertet werden. In Abhängigkeit von den Anforderungen kann ein kombinierter Einsatz
diverser Techniken sinnvoll sein.
Grundsätzlich gilt es jedoch zu beachten, dass die Einführung jeder weiteren Basistechnik mit
steigender Komplexität, zusätzlichen Kosten und erweitertem Know-how-Bedarf verbunden und daher
kritisch zu hinterfragen ist.