In vier Schritten zur effizienten IT-Infrastruktur
Server-based-Computing – Beim Aufbau von Terminalserver-Umgebungen sind verschiedene Faktoren zu beachten – von der Konsolidierung der Applikationslandschaft über die Wahl der optimalen Serverplattform bis hin zur richtigen Skalierung und Dimensionierung der Hardware.

Server-based-Computing, kurz SBC, hat sich in den letzten Jahren fest etabliert. Dies wundert nicht, bietet das Konzept doch zahlreiche Vorteile. Die Unternehmensanwendungen werden zentral in mehreren Instanzen auf einem Terminalserver wie dem Citrix-Presentation-Server oder dem Microsoft-Terminal-Server bereitgestellt, ausgeführt und gepflegt. Den PCs, die über das LAN oder WAN an die Serverfarm angeschlossen sind, werden nur noch die Bildschirm-, Maus- und Tastaturinformationen via Independent-Computing-Architecture-Protokoll (ICA) beziehungsweise Remote-Desktop-Protocol (RDP) übertragen.
Die vereinfachte Administration, zentrale Speicherung und automatische Bereitstellung der Unternehmenssoftware reduzieren die Kosten, erhöhen die Sicherheit und ermöglichen einen effizienteren Betrieb. Um allerdings die mit Server-based-Computing verbundenen Rationalisierungseffekte in vollem Umfang ausnutzen zu können, gilt es zunächst, die Applikationslandschaft zu konsolidieren und die Clients soweit wie möglich zu standardisieren. Im Optimalfall greifen dann sämtliche Mitarbeiter mit den gleichen Endgeräten auf einen einheitlichen, zentralen Applikationspool zu.
Applikationskonsolidierung
In der Planungsphase muss deshalb als erstes geklärt werden, ob alle Anwendungen Terminalserver-fähig sind. Nach wie vor existieren in Unternehmen und Behörden zahlreiche Applikationen, die nicht für Multi-User-Umgebungen konzipiert sind und deshalb eine Hürde für die Migration der gesamten IT auf SBC darstellen. In der Regel lässt sich derartige Software nur mit hohem Zeit- und Kostenaufwand nachrüsten, weshalb sie nicht selten auf den lokalen Rechnern belassen wird. Die jeweilige Funktionalität, die an den einzelnen Arbeitsplätzen benötigt wird, bestimmt letztendlich dann auch die Auswahl der passenden Endgeräte. Mit anderen Worten: Wie »dünn« der Thin-Client sein darf, hängt in erster Linie von den Anforderungen der eingesetzten Anwendungen ab: Lassen sie sich beispielsweise zentral bereitstellen oder müssen sie lokal betrieben werden oder welche Ansprüche bestehen an die Grafik?
Neben Multi-User-Problemen erschweren Applikationsinkompatibilitäten eine zentrale Bereitstellung der Software. Oft sind zeitintensive Verträglichkeitstests der gesamten Applikationslandschaft notwendig. Im ungünstigsten Fall bauen die Unternehmen separierte Serverfarmen auf, auch wenn der damit verbundene erhöhte Administrationsaufwand die Verringerung der Total-Cost-of-Ownership (TCO) verhindert.
Virtualisierung via Sandboxing
Einen weitaus effizienteren Ausweg aus Mehrbenutzer-, DLL-, Registry- oder Applikationskonflikten bieten Lösungen zur Anwendungsvirtualisierung. Hierbei werden die Applikationen in einer abgesicherten virtuellen Umgebung gekapselt. Diese so genannte Sandbox entkoppelt die Anwendungssoftware vom Betriebssystem und ermöglicht einen virtualisierten Zugriff auf Dateisystem, Registry oder Named-Objects. Die Isolierung schützt das Betriebssystem vor Manipulationen durch die virtualisierten Anwendungen.
Gleichzeitig ist sichergestellt, dass die unterschiedlichen Applikationen auf die jeweils benötigten Komponenten zugreifen können, ohne mit den Komponenten der parallel auf dem Terminalserver ausgeführten Anwendungen in Konflikt zu geraten. Unternehmen können damit die Probleme, die Terminalserver-inkompatible Software normalerweise mit sich bringt, eliminieren und somit ein ganzheitliches SBC-Konzept realisieren. Während Virtualisierungstechnologien auf der Anwendungsebene enorme Vorteile eröffnen, spielen sie auf der Hardware-Ebene keine Rolle, da die Terminalserver meist bereits bis zu 80 Prozent ausgelastet sind. Allerdings ist beim Server-based-Computing von Anfang an auf die geeignete Skalierungsmethode, Technologie und richtige Dimensionierung der Server zu achten.
Skalierung
Je mehr Anwendungen von den lokalen Clients auf die zentralen Terminalserver verlagert werden, desto performanter muss die zu Grunde liegende Server-Hardware ausgelegt sein. Prinzipiell lassen sich die Systeme mit Hilfe von zwei Skalierungsmethoden an die benötigte Rechenpower anpassen: Scale-Up und Scale-Out. Beim Scale-Up-Verfahren wird die Performance durch den Einsatz leistungsfähigerer Hardware – größere CPU-Anzahl und Arbeitsspeicher – gesteigert. Durch die Leistungsbegrenzung von Multiprozessorsystemen (Amdahl’sches Gesetz) lässt sich dieser Skalierungsprozess allerdings nur bis zu einem bestimmten Grad praktizieren. Denn je mehr Zugriffe auf gemeinsame Ressourcen wie Arbeitsspeicher, Festplatten oder Netzwerk erfolgen und somit eine Koordination zwischen den Prozessoren bedingen, umso mehr flacht die Skalierungskurve ab.
In der Praxis hat sich die Scale-Up-Methode bis zu zweistelligen Benutzerzahlen bewährt. Müssen die Terminalserver einige Hundert oder gar Tausend User bedienen, ist Scale-Out das geeignetere Verfahren. Hier wird die Rechenleistung von einer großen Anzahl identischer Server bereitgestellt. Die Systeme sind zu einer Serverfarm zusammengeschlossen und werden über eine gemeinsame Verwaltungseinheit administriert. Die Redundanz gewährleistet implizit eine hohe Verfügbarkeit. Ein Load-Balancing sorgt zudem für eine gleichmäßige Lastverteilung der Benutzersessions auf die zusammengeschlossenen Server. Zwar verläuft die Skalierung auch bei der Serverfarm nicht linear, da die interne Kommunikation zwischen den Systemen Overhead erzeugt. Allerdings fällt dieser weitaus geringer aus als bei großen Multiprozessorsystemen.
Servertechnologie
Neben der passenden Skalierungsmethode ist die richtige Hardware entscheidend für die Leistungsfähigkeit einer Serverfarm. Als ideale Plattform für SBC haben sich Bladeserver wie der Primergy-BX600 von Fujitsu Siemens Computers erwiesen, da sie wegen ihrer Serverdichte und des hohen Automatisierungsgrads eine große Ausfallsicherheit gewährleisten. Fällt beispielsweise bei einer Serverfarm mit acht Dual-Core-Blades eine Komponente aus, ist sie immer noch zu 87,5 Prozent verfügbar. Besteht die Serverfarm demgegenüber aus vier Quad-Core-Racks reduziert sich die Verfügbarkeit bei einem Komponentenausfall schon auf 75 Prozent. Bei größeren Multiprozessorsystemen wie 8-Wege-Systemen ist der Leistungsabfall noch drastischer.
Darüber hinaus gestalten sich die Installationsprozesse bei Bladeservern wesentlich einfacher als bei traditionellen Systemen. In der Regel genügt es, nur ein neues Blade einzustecken und eine entsprechende Managementsoftware kann innerhalb kürzester Zeit die neue Hardware für den produktiven Einsatz nutzbar machen. Mit Hilfe von Server-Cloning lässt sich das Setup von mehreren Hundert Servern innerhalb einer Stunde durchführen. Der Administrator kann von einer zentralen Managementkonsole aus unter Einsatz von Multicast-Technologie ein komplettes Remote-Deployment von Betriebssystem und Anwendungssoftware erledigen. Es ist kein Installationsprozess für jeden einzelnen Server mehr nötig. Das Betriebssystem-Image kann sich auf einem zentralen »Netzwerkshare« befinden, wodurch eine homogene Installation für alle Server sichergestellt ist. Durch die dynamische Verteilung von Images an einzelne Server- oder Servergruppen lassen sich die Rechnerressourcen unterschiedlichen Geschäftsanforderungen entsprechend einrichten.
Rightsizing
Damit die ausgewählte Hardware die spezifischen Anforderungen des Unternehmens optimal erfüllen kann, muss sie zudem richtig dimensioniert sein. Die Leistungsfähigkeit eines Terminalservers ist maßgeblich durch die CPU-Leistung und den Hauptspeicher bestimmt. Einen starken Einfluss übt zudem die Anzahl der Benutzer, die mit dem System arbeiten sollen, aus. Allerdings sind die User keine standardisierte und berechenbare Größe, sondern Individuen mit unterschiedlichem Arbeitstempo- und -verhalten sowie unterschiedlichen Aufgaben, die in unterschiedlichen Anforderungen an ein System resultieren.
Vor der Planung einer Serverfarm sollte das Benutzerverhalten deshalb genau analysiert werden: Welche Anwendungen müssen generell über den Terminalserver bereitgestellt werden? Welcher Anwender nutzt wann, wie oft, mit welcher Eingabegeschwindigkeit, von welchem Gerät, über welches Netzwerk welche Applikation? Welche Antwortzeiten werden erwartet? Benutzersimulationen auf Basis von Lastgeneratoren und spezieller Software liefern erste Antworten. Bei komplexeren Installationen ist allerdings eine Pilotphase unter realen Bedingungen absolute Pflicht. Nur durch umfassende Messungen in der Planungsphase lässt sich die optimale Serverplattform für den jeweiligen Einsatzfall ermitteln.
Torsten Koch,
Produktmanager Server, Fujitsu Siemens Computers Deutschland