Management virtueller Systemumgebungen

Das "V" fordert den Administrator

1. März 2005, 23:55 Uhr | Johann Baumeister/wg

Virtualisierung avanciert zum Trend der kommenden Jahre. Durch sie lassen sich IT-Ressourcen bedarfsgerecht bereitstellen. Das Konglomerat aus realen und virtuellen IT-Komponenten erschwert allerdings die Administration. Dennoch führt kein Weg an virtuellen IT-Strukturen vorbei.

Beim Begriff der Virtualisierung denken Administratoren derzeit wohl vor allem an die Produkte
von Vmware oder Microsoft. Beide liefern unterschiedliche Ausprägungen an Basissystemen, um darauf
mehrere Betriebssysteme und Anwendungen parallel zu betreiben. Deren Host-Systeme – faktisch sind
es Runtime Engines – emulieren für mehrere parallel laufende Gastsysteme jeweils eine eigene
Hardware. Sie ermöglichen eine N:1-Abbildung von Gastbetriebssystemen auf den Host (den Wirt) und
sorgen somit für eine schnellere und effizientere Auslastung der Hardware. Das eigentliche Ziel
sind jedoch dynamische Systeme, welche die benötigte IT-Leistung nach Bedarf bereitstellen. An
Marketingschlagworten dafür mangelt es nicht: On Demand, Utility Computing und Adaptive Enterprise
lauten einige der Begriffe, mit denen die Hersteller ihre Virtualisierungskonzepte vermarkten.

Neu ist die Virtualisierung jedoch keineswegs. Die heute als Legacy bezeichneten Betriebssysteme
wie VMS (von DEC) oder MVS (von IBM), tragen ein "V" im Namen, bildeten sie doch bereits virtuelle
Konzepte ab. Neu aufgelegt beziehungsweise erweitert hat IBM die Technik in den aktuellen
Betriebssystemen seiner Eserver der Serien I, P und Z. So ermöglicht zum Beispiel ein Eserver I5
mittels LPARs (Logical Partitions) die parallele Ausführung mehrerer Gastbetriebssysteminstanzen
(I5/OS, AIX, Linux, zudem erweiterbar um Windows) auf einer physischen Hardware.

Vielseitig im Einsatz

Zu den bekanntesten Vertretern virtueller Systeme gehören die Produkte von Vmware (Workstation,
GSX-Server und ESX-Server) sowie Virtual PC und Virtual Server von Microsoft. Relativ unbekannt
hingegen ist Virtuozzo von Swsoft. Allen Produkten gemeinsam ist, dass sie Laufzeitumgebungen für
mehrere virtuelle Betriebssysteme bereitstellen. Für die Gastsysteme stellt sich die
Virtualisierungs-Engine als ein physisch existenter Rechner dar. Das Host-System emuliert dessen
Ressourcen wie Prozessor, Hauptspeicher, Laufwerke, Netzwerkanbindungen oder gar Soundkarte. Es
teilt diese Ressourcen entweder zeitlich oder in der Menge.

Virtualisierung ist in vielen Bereichen der IT anzutreffen: So dient die Speichervirtualisierung
dazu, physisch nicht existente Speichersysteme nachzubilden. Bei allen gängigen SAN-Implementierung
emulieren die Speichersysteme das Dateisystem, das ein Gastsystem benötigt (NTFS, NFS, Reiser
etc.). Als letzter der großen Speicherhersteller hat EMC auf der Storage Networking World sein
Angebot zur Speichervirtualisierung vorgestellt. Die Software kommt auf einem Switch und direkt im
Netzwerk zu Ausführung. Eine virtuelle Alternative zur Durchführung von Backups liefert
beispielsweise Falconstor. Deren Virtual-Tape-Ansatz verwendet ein Disk Array zur Emulation einer
Bandbibliothek. Virtuelle Bandlaufwerke/-bibliotheken lassen sich generieren und Applikations- oder
Backup-Servern im FC- oder IP-SAN zuweisen, als wären sie physische Medien.

Eine andere Variante der Virtualisierung ist jene, Client-Systeme virtuell nachzubilden. Zur
Umsetzung kommt sie durch Techniken des Server-based Computings (SBC) – so von Microsoft, Citrix
oder Tarantella – häufig in Verbindung mit Thin Clients. Die SBC-Systeme stellen eine
Laufzeitumgebung für Client-Sessions dar.

Vielschichtige Verwaltung

Die Virtualisierung ermöglicht eine schnelle und dynamische Bereitstellung von physisch nicht
realen Umgebungen und erlaubt flexible Änderungen. Das erhöht allerdings auch den
Verwaltungsaufwand. Neben der Administration der Gastsysteme ist nun auch das Basisbetriebssystem
mitsamt der Virtualisierungs-Engine zu betreuen. Dies unterminiert die in Jahren errungenen
Konzepte zentraler Verwaltung. Die beständige Weiterentwicklung der Administrationswerkzeuge hat
endlich dazu geführt, dass der Administrator verteilte IT-Landschaften größtenteils von einer
Konsole verwalten und steuern kann. Dazu dienen Inventarisierung, Fernzugriff, zentrale
Softwareverteilung, Wake on LAN und andere Methoden. Durch die Virtualisierung kommen nun aber neue
Ebenen hinzu. So erfordert beispielsweise die Bereitstellung von SAN-Speicherplatz mehrstufige
Eingriffe: die Einrichtung der Partition in der SAN-Managementsoftware, das Mapping zum
Betriebssystem im LUN-Masking (Logical Unit Number), die Zuordnung zum Betriebssystem, die
Formatierung mit dem Dateisystem und schließlich die Übergabe des Speichers an den Konsumenten (die
Datenbank, das Mail-System etc). Das ist zwar flexibel, aber nicht wirklich einfach – zumal
verschiedene Tools nötig und verschiedene Personen damit betraut sind.

Betroffen von den Auswirkungen der Virtualisierung sind vor allem Belange des
Performance-Managements, der Inventarisierung, der Softwareverteilung und der Lizenzierung. Die
derzeit angebotenen Werkzeuge für das Systemmanagement weisen jedoch nur wenige Vorkehrungen zur
Verwaltung virtueller Systeme auf.

Die Tools der bekannten Hersteller – IBM Tivoli, CA Unicenter, HP Openview, Altiris, Landesk,
Enteo etc. – können in der Regel nicht zwischen virtuellen und realen Umgebungen unterscheiden. Ein
Problem: "Virtuell" heißt oft "schnell" – teilweise zu schnell für die Werkzeuge, die auf den
langsameren Zyklen von Inventarisierung und anschließender Softwareverteilung aufbauen.

Zur Inventarisierung nutzen die Werkzeuge entweder Agenten, die auf dem Zielsystem installiert
sind, oder greifen Information durch Fernabfragen zum Beispiel mit SNMP ab. Nun gilt es allerdings,
zwischen virtuellen und physischen Systemen zu unterscheiden, denn die Inventarisierungsfunktionen
sind in den Systemmanagement-Tools unterschiedlich implementiert. Liefert zum Beispiel die
Virtualisierung nur die physischen Gerätedaten, so ist damit kein darauf aufgesetztes virtuelles
System erkennbar. Stellt hingegen der Anbieter nur Agenten für die Gastbetriebssysteme bereits, so
reicht auch das nicht aus. Sind beispielsweise virtuelle MAC- oder IP-Adressen vergeben und
Netzwerkkarten zwischen den Gastsystemen aufgeteilt, so sind die bei der Inventarisierung
gewonnenen Werte genau zu prüfen: Was bedeutet es, wenn eine Netzwerkkarte Probleme bereitet? Wer
übernimmt das Mapping zwischen virtueller und realer IP-Adresse? Welche von beiden kann geändert
werden und wie verhält sich diese zum jeweiligen physischen/virtuellen Gegenstück? Die
Inventarisierung soll die Grundlage für alle nachfolgenden Arbeiten liefern. Wenn aber der
Administrator den gewonnenen Inventardaten nicht bedingungslos vertrauen kann, wie soll er dann
nachfolgende Arbeiten darauf aufsetzen?

Aktive Maßnahmen

Zu diesen aktiven Maßnahmen der Systemverwaltung zählen all jene, die sich mit Wartung, Tuning,
Backup, Softwareverteilung, Performance- oder Patch-Management beschäftigen. Das Problem in
virtuellen Umgebungen liegt nicht darin, dass sich diese Daten nicht ermitteln oder ändern ließen –
sondern darin, dass die Administration nun zweigleisig fahren muss: für die physischen Systeme über
die bekannten Verwaltungs-Suiten, für die virtuellen Geräte hingegen über die Tools der jeweiligen
Virtualisierungssysteme. So gilt es nun, sowohl die Einstellungen des Gastsystems als auch der
Virtualisierungsumgebung zu berücksichtigen. Von den heute zentral agierenden
Administrations-Suiten spaltet sich die Verwaltung der virtuellen Systeme ab.

Die Änderungen betreffen auch die Tools für das Business-Process-Monitoring. Diese Werkzeuge –
von IBM, CA oder BMC – schaffen eine Zuordnung zwischen den Geschäftprozessen und der zugehörigen
IT-Infrastruktur. Komplizierter wird auch das Metering der Anwendungen samt Lizenzierung. Die
Abrechnung nach CPU wirft bei einer virtuellen Umgebung Fragen auf – aber die kommen mit der
Einführung der Dual-Core-Prozessoren ohnehin. Von den Herstellern der Administrations-Suiten ist zu
hören, dass man sich mit diesen Fragen beschäftige. Erste Ergebnisse sind auch bereits verfügbar.
Es kommt Bewegung in den Markt.

Migration zu virtuellen Welten

An der Virtualisierung führt trotz allem kein Weg vorbei. Sie eignet sich nicht nur zur
flexiblen Ressourcennutzung, sondern auch zur Konsolidierung von Serversystemen. Beim Austausch
eines betagten Servers wird dieser eben virtuell auf einem Rechnerknoten oder Blade nachgebildet.
Mit dem P2V Assistant hat Vmware ein Tool für eine vereinfachte Migration von physischen auf
virtuelle Systeme vorgestellt. Das Microsoft-Pendant mit ähnlichem Funktionsumfang nennt sich
Virtual Server Migration Toolkit. Und schließlich will nun HP mit dem Virtual Machine Management
Pack in dem Markt mitmischen.

Die Anpassung der Tools auf virtuelle Welten geht mit veränderten Methoden der Administration
einher. Statt singulärer Aktionen, wie sie heute mit Inventarisierung, Fernwartung und
Softwareverteilung anzutreffen sind, geht der Trend in Richtung eines "Desired-State-Managements".
Dabei gibt der Administrator den Sollzustand vor und das System kümmert sich weitgehend automatisch
um dessen Erreichung und Einhaltung. Hier schließt sich der Kreis zum Autonomic Computing samt
On-Demand-Bereitstellung von Ressourcen.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+