Modellierung der Betriebsszenarien vs. Server-Setup

Vom Server zum Service

28. Juni 2009, 22:56 Uhr | Björn Paulewicz/jos Björn Paulewicz ist Product Manager Industry Standard Server bei HP.

Die IT-Rechenzentrumsdienste folgten jahrelang einem stereotypen Muster. Dieses besteht aus der Bereitstellung des Servers sowie dem Setup des Betriebssystems, der Patches und der Applikation. Neue Techniken und Verfahren läuten nun vielfach einen Paradigmenwechsel ein.

Die Entwicklung der Technik ist meist geprägt von Evolutionssprüngen. Nach der Entdeckung
herausragender Neuerungen kommt eine Phase der Perfektionierung dieser "Erfindung". In Bezug auf
die IT-Betriebsmodelle stellte das Aufkommen der Großrechner, der verteilten Server oder Desktops
und das Internet solche Evolutionssprünge dar. Grenzt man diese Betrachtung auf die Rechenzentren
ein, so zeigt sich, dass dort mit der Einführung von Template-basierenden Deployment-Lösungen und
kombinierten Systemen ein Evolutionssprung mit erheblichen Auswirkungen auf den IT-Betrieb
bevorsteht. Dies soll im Folgenden näher erläutert und begründet werden.

Traditionelles Server-Deployment in mehreren Phasen

Nach der Ära der frühen Großrechner folgten dedizierte und eigenständige Server. Diese werden
durch manuelle oder teilautomatisierte Software-Deployment-Techniken mit dem Betriebssystem und der
Applikation versehen. Im nächsten Schritt kommen die Applikationen hinzu. Zum Betrieb ist dann noch
eine Verbindung mit den Datenhaltungssystemen erforderlich. Erst dann sind der Server und damit
dessen Dienste (die Applikationen) einsatzbereit. Als Techniken zur Absicherung gegen Ausfälle
kommen Backup/Restore, Imaging, CDP (Continuous Data Protection) oder etwa Cluster in Frage. Diese
Deployment- oder Restore-Prozesse kosten Zeit und sind fehleranfällig. Diese Verfahren waren jedoch
die Vorläufer für die heute verwendete Virtualisierung der Systeme und den begleitenden
Verfahren.

Virtualisierung vereint Betriebssystem mit Applikation

Mit der Virtualisierung ändern sich die Rahmenbedingungen für die Applikationsbereitstellung.
Vom Standpunkt des Deployments haben virtuelle Maschinen einen enormen Vorteil, denn sie bündeln
meist ein komplettes Server-Image samt Applikation und Konfiguration in einem Gebilde. Vorteilhaft
ist auch die Absicherung für den Fehlerfall. Durch die Bündelung ist die Inbetriebnahme oder der
Wiederanlauf sehr schnell durchzuführen. Der Nachteil liegt in den nun geringeren Leistungsreserven
für Lastspitzen. Ein zu 80 Prozent ausgelasteter Host hat dann nur noch einen Spielraum von 20
Prozent für alle virtuellen Gäste. Daher benötigt man mehr und bessere Möglichkeiten, um
Lastspitzen abzufedern. Dies verlangt nach neuen Techniken, um Applikation dynamisch und schneller
in Betrieb zu nehmen.

Um schneller auf Laständerungen reagieren zu können, stellt das System die Applikationen nun
dynamisch bereit. Dabei sind die Applikationsdienste in vordefinierte Pakete (Templates) geschnürt.
Diese arbeiten auf einem standardisierten Rechner, sind also provisionierbar. Die Templates führen
die Konzepte fort, wie sie beispielsweise durch das Imaging oder die Virtualisierung bereits
etabliert sind. Beide Verfahren sind unschlagbar schnell in der Bereitstellung eines Dienstes.
Ähnlich wie die Images oder virtuelle Maschinen ist in den Templates die gesamte Lautzeitumgebung
einer Applikation zusammengefasst. Dies umfasst die Codemodule, aber auch die Konfiguration und die
Voraussetzungen zum Betrieb der Images.

Daneben gibt es einige wichtige Verbesserungen der Templates gegenüber den virtuellen Maschinen.
Virtuelle Maschinen oder auch Images verfügen über keine von außen zugänglichen Informationen zu
ihrer Ausführungsumgebung. Bei einer inaktiven virtuellen Maschine ist von außen nicht erkennbar,
was sie zum Lauf benötigt. Es gibt keine Informationen über den CPU-Typ, die Menge des
Arbeitsspeichers, die Netzwerk- oder Datenanbindung, die Kosten oder den Stromverbrauch. All diese
Informationen sind separat und meist manuell zu verwalten. Auch um die Verbindungen zur Außenwelt
muss sich der Administrator selbst kümmern. In dieser Hinsicht erweitern die Templates die Konzepte
der virtuellen Maschinen. Sie umfassen neben dem eigentlichen Code-Image auch all die
Informationen, die zur Ausführung der Anwendung nötig sind.

Templates beschreiben IT-Dienste - nicht IT-Bausteine

Templates können die Anforderungen einer einzelnen virtuellen Maschine oder eines Servers
bestimmen. Sie sind aber auch in der Lage, weitaus komplexere Zusammenhänge der Infrastruktur
abzubilden. So kann ein Template beispielsweise jene Anforderungen umfassen, die für den Betrieb
eines oder mehrerer Exchange-Mail-Server für einige tausend Benutzer auf einem Oracle-RAC-Cluster
notwendig sind.

Da die Templates die Anforderungen der IT-Dienste an die Infrastruktur abbilden, ermöglichen sie
auch eine rechnergestützte Einsatz- oder Kapazitätsplanung. Dazu gehört auch die grafische
Modellierung der Einsatzszenarien. In der Verknüpfung eines Templates und seinen Anforderungen mit
einer physischen oder virtuellen Ausführung entstehen dabei völlig neue Möglichkeiten der
Applikationsbereitstellung. Geht man gar einen Schritt weiter in Richtung automatisierte
Provisionierung, dann werden die Kapazitätsangaben zu den Ressourcen in den Templates geradezu
zwingend, denn sonst ist kein Automatismus möglich.

Letztendlich stellen Templates die Beschreibungen dar, die für den Betrieb von Applikationen
notwendig sind. Diese Beschreibungen lassen sich aus dem Kontext der Verwaltungssysteme exportieren
oder in diese importieren. Damit sind einmal erstellte Templates auch von anderen nutzbar. Durch
die Nutzung von Templates wird somit das Deployment von Anwendungen revolutioniert. Zu ihrem Lauf
benötigen sie, wie auch ihre Vorgänger, eine passende Ausführungsumgebung, also Server-Systeme.
Doch auch in dieser Hinsicht zeichnen sich bahnbrechende Veränderungen ab.

Deployment auf standardisierter Hardware

Applikationen laufen bekanntlich auf Servern. Die traditionellen Geräte sind als Tower-Server,
Pizza-Box oder Rack-Modell verfügbar. Die einzelnen Server-Baugruppen sind durch die Steckkarten,
Bussystem und Verkabelung verknüpft. Die Anbindung zu weiteren Servern erfolgt mittels der
Netzwerke durch die rückseitige Verkabelung. Zum Betrieb einer Applikation sind mehrere Baugruppen
nötig, etwa der Server und seine Anbindung an den Speicher. Dies zieht eine relativ umfangreiche
Verwaltung nach sich, denn einen Server hinzuzunehmen verlangt dabei immer auch die Verkabelung mit
den weiteren IT-Einrichtungen.

Blade-Systeme vereinfachen die Situation, denn ein Blade-Rechner stellt ein geschlossenes und
fertiges System dar, das zum Betrieb bedeutend weniger externe Unterstützung benötigt. Dies
reduziert die Verkabelung und Konfiguration. In Verbindung mit dem Blade-Gehäuse (dem Enclosure)
entsteht somit ein vollwertiges und eigenständig operierendes Gebilde, das weitgehend ohne externe
Unterstützung auskommt. Blades benötigen heute aber noch die Anbindung an die weiteren Komponenten
wie etwa an das Speichersystem für die Daten und die Verknüpfung untereinander durch die
Netzwerke.

Um auch diese Abhängigkeiten zu verringern, packen Hersteller alle benötigten Baugruppen in ein
Gehäuse, wie es beispielsweise das Blade-System Matrix darstellt. Damit bilden Systeme dieser Art
alle benötigten Ressourcen in einer Einheit ab. Dies umfasst die Server für die
Applikationsprozesse, den Plattenspeicher zur Datenhaltung, die Netzwerkverknüpfungen und die
Management-Tools zur Verwaltung. Damit entsteht gewissermaßen ein Rechenzentrum auf engstem Raum.
Dieses benötigt zum Betrieb von außen lediglich die Stromversorgung und die Kühlung. Es ist aber
aufgrund seiner Kompaktheit und Größe weitaus flexibler und erfordert keine baulichen
Anpassungen.

Fazit

Das Deployment der Applikationen ist im Wandel begriffen. Vordefinierte Templates für die
benötigten Applikationsdienste lösen zeit- und fehlerträchtige Installationen von Betriebssystemen
und Server-Anwendungen ab. Diese Templates lassen sich sehr schnell und automatisiert anwenden. Sie
schaffen damit die Voraussetzungen für eine weitergehende Automatisierung der IT-Prozesse. Als
Grundlage benötigen sie eine standardisierte Hardware, wie Blade-Systeme sie bieten.

Wenngleich diese Neuerungen einen Evolutionssprung darstellen, so ist deren Umsetzung dennoch
schrittweise vorzunehmen. Durch die Kapselung aller Komponenten, die zum Betrieb einer Anwendung
benötigt werden, und zwar auf engstem Raum, entstehen dabei autarke Betriebsplattformen. Diese sind
eigenständig und getrennt von der bestehenden IT-Infrastruktur zu implementieren. Aufgrund der
flexiblen Zuweisung von Rechnerkapazität an die anfordernden Geschäftsprozesse erreicht die
Bereitstellung von IT-Diensten so neue Dimensionen. Es eröffnen sich erstmals IT-Betriebsszenarien
mit dynamischer Server-Provisionierung, die mit den derzeitigen Techniken, nämlich der festen
Zuweisung einer Applikation zu einem Server, nicht erreichbar sind.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+