Manuelle Serverprovisionierung ist ein arbeits- und kostenintensiver Prozess. Automatische Provisionierungsprodukte, die als virtuelle IT-Administratoren zu verstehen sind, können eine Alternative zu mühsamer Handarbeit sein. Der folgende Beitrag gibt einen Überblick über den Stand der Technik, erläutert die Funktionsweise der Serverprovisionierung und zeigt, inwieweit diese Lösungen tatsächlich alltagstauglich sind.
Provisionierung an sich ist nichts Neues. Der Begriff bezeichnet ursprünglich den Prozess einer
Servicenachfrage von der Eingabe der Anforderung bis zur Erbringung der Leistung. In der IT
beschreibt man damit im Allgemeinen die Konfiguration von Computersystemen, um einen Service
anbieten zu können. In der Praxis liegt der Fokus heute zumeist auf der Installation und
Aktivierung der nötigen Software auf einem bestehenden Serverrechner. Damit verbunden sind die
Installation und Konfiguration von Server, Speicher, Netzwerkanschluss und anderen Komponenten.
Serverprovisionierungs-Tools sollen diese Prozesse automatisieren. Ziel ist die Verringerung der
Administrationskosten anhand remote vorgenommener Installationen und Updates sowie die Steigerung
der Verfügbarkeit von Applikationen – Automatisierung senkt das Risiko menschlicher Fehler bei
komplexen und fehleranfälligen Prozessen. Der Verteilungsprozess auf die Systeme kann dabei von
Tagen auf Minuten reduziert werden, was sich direkt in Kosteneinsparungen übersetzt. Der virtuelle
IT-Administrator behält stets den Überblick, sodass ungenutzte Ressourcen sofort auffallen. Durch
die Möglichkeit, Ressourcen schnell und effizient dorthin zu verteilen, wo sie gerade benötigt
werden, verspricht automatische Serverprovisionierung die Optimierung der Auslastung. Auch das
Dilemma der richtigen Kapazitätsplanung ist damit lösbar. Denn sowohl der auf alle Eventualitäten
ausgerichtete Überausbau der IT-Infrastruktur, als auch die Strategie einer Minimumausstattung sind
jeweils auf ihre Weise Kostenfallen.
Die derzeit verfügbaren Automatisierungslösungen von Herstellern wie Hewlett-Packard, IBM,
Microsoft, Sun Microsystems oder Symantec unterscheiden sich teilweise deutlich. Einige arbeiten in
heterogenen Umgebungen, andere nur in homogenen, manche haben eine besonders benutzerfreundliche
grafische Oberfläche, und so weiter. Allen gemeinsam sind jedoch Arbeitsweise und
Kernkomponenten.
Inventarisierung, Konfiguration und Netzmanagement: Am Anfang steht die Erkennung des Standorts
eines Servers, seine Nutzung, Ausstattung und aktuelle Verwendung. Diese Informationen liefern die
Basis jeder automatischen Serverprovisionierungslösung. Viele Provisionierungsprodukte können auf
physikalischer Ebene verfolgen, wo genau im Unternehmen – also Raum und Gebäude – ein Server steht.
Auf logischer Ebene bieten die Lösungen ein Higher-Level-Konzept wie etwa "Server Inventory Pools":
Jeder beliebige Server kann logisch zu mehreren Inventory-Pools gehören, die beispielsweise als
Produktions-, Reserve und Instandhaltungs-Pools gelten. Andere Informationen geben Auskunft
darüber, welche Software in welcher Version installiert ist. Provisionierungs-Tools erkennen auch,
wie ein spezieller Server im Netz eingebunden ist. Zusätzliche Informationen geben Aufschluss
darüber, welche Speicherressourcen, besonders in einem SAN, aktuell genutzt werden.
Imaging und Scripting: Es existieren zwei Möglichkeiten, Software auf Server zu verteilen. Ein
Verfahren ist das "Golden Image". Es beruht auf der Imaging-Technik und zeichnet sich besonders
durch Schnelligkeit aus. Bei dieser Methode wird von der kompletten Software eines Quellservers
einfach ein Snapshot erstellt. Letzterer lässt sich auf den Zielserver übertragen, der dann einen
exakten Klon des Quellservers darstellt. Um einen universell portierbaren Windows-Server-Snapshot
zu erstellen, setzt etwa das Serverprovisionierungs-Tool Opforce 4.0 von Symantec auf Microsofts
Sysprep-Technik auf. Es entsteht eine "Blaupause", mit deren Hilfe sich jeder Server abgleichen
lässt. Diese spezielle Funktion automatisiert zudem die Provisionierung unterschiedlich
konfigurierter Server und bietet Flexibilität bei Konfigurations- und Hardwarewechseln, die
andernfalls die Neuerstellung der Bilder erfordern würden.
Die zweite Methode der Provisionierung ist Scripting. Hier wird zur Automatisierung des
Installationsprozesses ein Skript verwendet. Letztlich handelt es sich um das automatische Ebenbild
desjenigen, der vor der Serverkonsole sitzt und auf Rückmeldungen des Installationsprozesses
antwortet – sprich der virtuelle IT-Administrator.
Ein vollständig automatisiertes Provisionierungsprodukt muss Imaging, Scripting und deren
Kombination beherrschen. Der Grund dafür sind die Vor- und Nachteile beider Techniken, die eine
einzige optimale Lösung verbieten. Serververteilung, die auf Imaging basiert, zeichnet sich durch
große Schnelligkeit aus. Jedoch sind einige Applikationen nicht abbildbar. So ist etwa ein Golden
Image von Microsoft Exchange unmöglich, da der Server zu stark in die Active-Directory-Umgebung
eingeflochten ist. Scripting hingegen kann mit einer größeren Variation von Hard- und
Softwarekonstellationen umgehen, ist dafür aber wesentlich langsamer – mit dem Effekt, dass sich
Scripting nicht für eine größere Anzahl von Servern oder sehr dynamische Verteilungen eignet.
Unabhängig davon, welche Technik genutzt wird, muss ein automatisches
Serverprovisionierungs-Tool in der Lage sein, die erstellten und verteilten Skripte oder Images
selbstständig zu managen. Eine Bestandsliste der Images und Skripte, die Auskunft darüber gibt, was
wann und vor allem wohin verteilt wurde, ist unerlässlich. Eine weitere Grundfunktion muss auch das
Handling von "Bare-Metal"-Betriebssystemverteilungen sein, einschließlich Setup und Initialisierung
des Plattenspeichers etwa in Form von RAID-Gruppen.
Wechselmanagement: Software unterliegt einer permanenten Weiterentwicklung. Automatische
Serverprovisionierung muss hinsichtlich neuer Updates und Versionen immer auf dem Laufenden sein
und diese gegebenenfalls automatisch einführen und anpassen. Dies gilt auch für die umgekehrte
Richtung: Ungewollte Ergebnisse müssen sich rückgängig machen lassen.
Automatisierungsrichtlinien: Richtlinien sind der Kern aller Automatisierungsprozesse. Sie
definieren, welche Ereignisse die automatische Verteilung von Ressourcen auslösen. Das automatische
Serverprovisionierungsprodukt bestimmt dann selbstständig, welcher Server verwendet wird und
verteilt die entsprechende Software darauf. Damit erübrigt sich aber nicht die Notwendigkeit der
Inventarisierung und Kapazitätsplanung. Denn Grundvoraussetzung der schnellen Ausführung einer
Provisionierung ist, dass überhaupt ein Server zur Verfügung steht. Dies kann ein Ersatzserver sein
oder einer mit untergeordneter Wichtigkeit. Damit ein automatisches Serverprovisionierungs-Tool
richtig einsetzbar ist, benötigt das Programm vorab genaue Informationen darüber, was verfügbar ist
– also der aktuelle Bestand und dessen Konfiguration. Auch das Änderungsmanagement muss klar sein,
sprich an welcher Stelle des Netzes etwas platziert werden soll, welche Image- oder Skriptquelle
verwendet wird und welche Patches nach der Verteilung zum Einsatz kommen.
Die Automatisierungstechnik steckt allerdings noch in den Kinderschuhen, und viele Toolsets
funktionieren nur eingeschränkt. Fast alle aktuellen Automatisierungslösungen zeigen sehr gute
Ergebnisse bei erstmaligen Installationen und Softwareprovisionierungen einschließlich des Setups
von Betriebssystemen, Middleware und Ähnlichem. Aber diese Provisionierungsmechanismen sind nur ein
Teil der Aufgabe: Vernachlässigt wird nach wie vor die komplette Integration aller Systeme mit dem
Ziel einer ganzheitlichen Überwachung und Steuerung. Zusätzliche manuelle Arbeiten sind nötig, wenn
es um die Beschreibung von Netztopologien, um eine angemessene Portfoliostrukturierung und andere
Daten geht, die vorgelagerte Tools nicht routinemäßig erfassen können.
Um die aktuell verfügbaren Lösungen einsetzen zu können, müssen auch von Unternehmensseite
bestimmte Voraussetzungen gegeben sein. So ist es zwar theoretisch möglich, eine automatische
Serverprovisionierung selbst bei unterschiedlichster Ausstattung durchzuführen. Wenn aber keine
klaren Muster oder Ähnlichkeiten zwischen den Systemen existieren, ist zunächst viel Zeit in die
Bestandsaufnahme und systematische Beschreibung der zur Provisionierung verfügbaren Ausstattung zu
investieren. Darüber hinaus erfordert das Klonen von Software normalerweise, dass die zu klonenden
Systeme eine identische oder zumindest sehr ähnliche Hardware aufweisen. Dies entspricht jedoch
kaum der Realität, sodass IT-Administratoren über mehrere Serverräume hinweg unterschiedliche
Systeme handhaben müssen. Image-Management kann sich so zu einer ziemlichen Herausforderung
entwickeln. Will ein Unternehmen automatische Serverprovisionierung einsetzen, muss es entweder
vorab viel Geld in die Homogenisierung seiner Technik stecken, oder aber – und das ist die
preiswertere Variante – das nächste Upgrade der IT-Systeme als Teil des natürlichen
Austauschkreislaufs abwarten.
Integration: Es existieren bereits viele Tools für das Scripting oder Verteilen von Servern, zur
Verfolgung des Bestands oder zum Aufzeigen von Performance-Problemen. Was aber fehlt, ist die
Integration der Tools untereinander – speziell zwischen Herstellern und über Produktgrenzen hinweg.
Durch Web- und Grid-Services besteht die Hoffnung, dass sich die Situation im Lauf der Zeit
verbessern wird. Doch ungeachtet der Anstrengungen wie Data Center Markup Language (DCML) und Open
Grid Services Architecture (OGSA) sind viele Hersteller zu wenig an einer Zusammenarbeit
interessiert, sodass Fortschritte bestenfalls langsam vorankommen.
Das Endziel der automatischen Provisionierung ist, alle Wartungsaufgaben in den Datenzentren zu
verselbstständigen und Routineaufgaben zu automatisieren. Zum gegenwärtigen Zeitpunkt der
Entwicklung sind solche Lösungen jedoch mehr als Unterstützungs-Tools anzusehen. Der Einsatz
automatischer Provisionierungssysteme kann den IT-Administrator bislang nicht ersetzen, aber
deutlich entlasten. Gut funktioniert dabei das Automatisieren der erstmaligen Installation von
Betriebssystemen und Applikationen, ebenso wie automatisches Upgraden und der Umgang mit Patches.
Zudem sind die Programme in der Lage, Speicher und Netze zu konfigurieren. Um den vollen Nutzen aus
automatischer Provisionierung ziehen zu können, sollten nicht nur einzelne Komponenten
provisioniert werden, sondern alle aktuell nicht effizient genutzten Ressourcen unternehmensweit
erst lokalisiert und dann umverteilt werden.
Zweifellos sind die derzeit verfügbaren Lösungen ein entscheidender Schritt in die richtige
Richtung. Automatische Serverprovisionierung sorgt für Konsistenz und senkt die Wahrscheinlichkeit
von Performance-Problemen dank schnellem Auffinden, Analysieren und Auflisten der Unterschiede
zwischen beliebig vielen provisionierten Servern. Abweichungen von der Sollkonfiguration sind damit
schnell erkenn- und korrigierbar. Mehr Effizienz, Dynamik und Zuverlässigkeit im Rechenzentrum sind
die Folge.
Je größer die IT-Infrastruktur ist, desto offensichtlicher werden bei einem reibungslosen Ablauf
die Kostenvorteile, die durch die Automatisierung dieser Aufgaben entstehen. Ebenso verhält es sich
bei wachsenden Unternehmen, die ihre Server laufend anpassen müssen. Die Provisionierung verteilter
Server und das Management der Applikationskonfigurationen sind elementare Bestandteile einer "
Utility-Computing"-Strategie, die das Ziel einer besseren Servernutzung und flexibleren
Serverinfrastruktur bei weniger Kosten und Komplexität verfolgt. IT und wechselnde
Business-Anforderungen lassen sich durch automatische Provisionierung in Einklang bringen.