Virtualisierungslösungen für Server

Richtig planen, virtuell arbeiten

17. Dezember 2007, 23:00 Uhr | Elmar Török/pf

Das Thema "Virtualisierung" ist für IT-Leiter kaum noch zu umgehen: Es findet sich fast kein Einsatzbereich, in dem diese Technik nicht Vorteile bietet. Auch wenn der Markt für Servervirtualisierungen übersichtlich erscheint, gilt es, die Kaufentscheidung gründlich zu überlegen. Der Beitrag geht auf die entscheidenden Kriterien für die Auswahl und den Betrieb einer Virtualisierungslösung ein.

Virtualisierungslösungen sind aktuell ein Thema mit besonderer Zugkraft: Von allen Seiten kommen
Ankündigungen neuer Produkte und Dienstleistungen in diesem Bereich. Mittlerweile ist nach "Server"
und "Storage" auch der Desktop in den Blickpunkt der Anbieter gerückt. Doch nach wie vor erlebt der
Serverbereich die größten Umwälzungen durch die neue Technologie. Ganze Rechenzentren werden im
Hinblick auf ihre Eignung für eine Umwandlung in "virtuelle Maschinen" überprüft, und die
Hersteller überschlagen sich bei der Aufzählung von Vorteilen und Einsparpotenzial. Immer noch ist
ein gehöriges Maß Hype involviert, doch selbst bei ganz realistischem Herangehen an das Thema
erscheint Virtualisierung als sehr lohnend für Unternehmen. Die bessere Ausnutzung von
CPU-Leistung, die einfachere Handhabung von virtuellen gegenüber physischen Maschinen und vor allem
die Möglichkeiten, die sich in puncto Redundanz auftun, sind unbestreitbar positiv. Der Markt
spiegelt das Bild wider: Gartner prognostiziert, dass die Anzahl von virtuellen Maschinen weltweit
von 540.000 Ende 2006 auf über vier Millionen im Jahr 2009 steigen soll. Und selbst dies, so fügen
die Analysten hinzu, sei nur ein Bruchteil des potenziellen Markts.

Marktanteile zu mir

Auf der Herstellerseite zeigt sich im hektischen Zukaufstempo, dass das Potenzial der
Virtualisierung erkannt wurde. Platzhirsch Vmware ist nach dem Börsengang 64 Milliarden Dollar
wert, und Citrix hat mit Xensource einen wesentlichen Mitspieler im Markt für eine halbe Milliarde
Dollar gekauft. Nun herrscht wildes Gerangel um die besten Ausgangsplätze im noch relativ jungen
Markt. Beide Hersteller profitieren von der bislang vornehmen Zurückhaltung Microsofts. Deren
aktuelle Virtualisierungsprodukte Virtual Server und Virtual PC sind kostenlos erhältlich und
gelten als reine Feigenblätter, um die Zeit bis zur "richtigen" Virtualisierungslösung (Codename "
Viridian") zu überbrücken. Viridian, ursprünglich als Bestandteil von Windows Server 2008
gehandelt, wird im vollen Umfang erst in einem späteren Feature-Pack für das Serverbetriebssystem
mit von der Partie sein.

Damit sind die wichtigsten Anbieter fast schon genannt. Hinzu kommen noch Virtual Iron, deren
Virtualisierungslösung auf Xen basiert, sowie Swsoft und Parallels. Die beiden Letzteren ziehen
mehr oder weniger an einem Strang: Swsoft hat mit Virtuozzo ein kommerzielles Produkt im Angebot,
das vor allem für sehr große Umgebungen im Provider- oder Hosting-Umfeld interessant ist. Davon
existiert mit Openvz auch einen Open-Source-Ableger. Parallels wiederum gehört über eine
Mehrheitsbeteiligung ebenfalls zu Swsoft und hat sich vor allem durch ihre Virtualisierungsprodukte
für Mac-Arbeitsplätze einen Namen gemacht. Doch auch Parallels hat bis Ende 2007 die Betaversion
eines Serverprodukts angekündigt. Die Vollversion – vermutlich ab Anfang 2008 erhältlich – soll von
Beginn an Windows, Linux und MacOS X als Host-Betriebssysteme unterstützen.

Neben der Softwareplattform ist die Hardware allerdings mindestens ebenso wichtig: AMD und Intel
haben immerhin seit diesem Jahr x86-CPUs mit Virtualisierungsunterstützung auf dem Markt, und IBMs
Power5-Server kann schon seit langem mit Virtual Machines (VMs) umgehen. Auch die neueste
Itanium-Generation (9100 Dual Core) beinhaltet Virtualisierungserweiterungen – Virtuozzo 4.0 von
Swsoft beispielsweise unterstützt diese Funktionen ganz explizit.

Wenn es um die Auswahl der richtigen Lösung geht, steht eine grundsätzliche Entscheidung an:
Welche Art der Virtualisierung soll es denn sein? Bislang waren vor allem zwei Spielarten im
Einsatz: vollständige und Paravirtualisierung. Bei der ersten Variante läuft das Gastbetriebssystem
in einem komplett simulierten, virtuellen PC. Die tatsächlichen Eigenschaften des Hosts bleiben
versteckt, der virtuelle PC ist mit generischer Hardware ausgestattet. Dies bietet den Vorteil
hoher Flexibilität: Im Prinzip lässt sich so jedes Betriebssystem auf einem Host virtualisieren,
solange Treiber für die generische Hardware vorliegen. Der Nachteil sind relativ hohe
Leistungseinbußen, die die Geschwindigkeit des Hosts und der VMs beeinträchtigen. Vmware und
Virtual PC sind die bekanntesten Vertreter dieser Gattung.

Paravirtualisierung hingegen nutzt einen "Hypervisor": Software, die als dünne
Abstraktionsschicht unterhalb des Host-Betriebssystems liegt und Speicher- und CPU-Ressourcen
verteilt. Das Gastbetriebssystem verwendet große Teile des Host-Betriebssystems, der Hypervisor
sorgt für die Trennung in separate Prozesse. Offensichtlicher Nachteil ist die Limitierung der
Gastsysteme auf das Betriebssystem des Hosts. Allerdings haben die mittlerweile in aktuelle
Prozessoren eingebauten Virtualisierungserweiterungen ("VT") diesen Nachteil eliminiert: So erlaubt
Xensource – nun Citrix Xenserver genannt – bei Installation auf einem VT-fähigen Prozessor alle
Arten von Gastsystemen, darunter auch Windows.

Drei Wege zur Virtualisierung

Inzwischen existiert auch ein dritter Ansatz, die "Native"-Virtualisierung. Die Grenzen zur
vollständigen Virtualisierung sind etwas verwischt, und das Konzept weist viele Ähnlichkeiten auf.
Der wichtigste Unterschied ist, dass die virtuelle Maschine dem Gastbetriebssystem nur Teilbereiche
der Host-Hardware in Form von virtueller Hardware zur Verfügung stellt. Diese Pseudoumgebung reicht
jedoch, um ein unverändertes Gastsystem darin laufen zu lassen. Dies funktioniert sogar mit 32- und
64-Bit-Varianten eines Betriebssystems. Native-Virtualisierung nutzt stark die VT-Fähigkeiten der
CPU. Virtual Iron stellt einen Vertreter dieser Kategorie dar.

Herauskristallisiert hat sich auch die Unterscheidung in zwei grundsätzliche Spielarten: zum
einen Lösungen wie Vmware Workstation oder Virtual PC, die wie jedes Anwendungsprogramm auf einem
vorhandenen Betriebssystem aufsetzen. Zum anderen existiert der dedizierte Ansatz: Er verwandelt –
unter anderem bei Citrix Xenserver, Virtual Iron oder Vmware ESX Server – einen Server in einen
dedizierten Virtualisierungs-Host, der nur unter einem abgeschotteten und modifizierten
Betriebssystem läuft. Dies kommt sicher der Stabilität und Leistung zugute, allerdings müssen sich
solche Produkte selbst um die passenden Treiber für die jeweilige Hardware kümmern. Bei den
Xen-Ablegern ist dies kein großes Thema: Sie basieren auf Linux und können auf die vorhandene
Code-Basis zurückgreifen. Vmware ESX Server hat es hingegen etwas schwerer – da dieses Produkt aber
zur oberen Leistungsklasse zählt, ist die Palette der in Frage kommenden Hardware ohnehin relativ
klein. Die exklusive Kontrolle über die Hardware weist auch Vorteile auf: So bietet ESX Server
viele Funktionen der Netzwerkanbindung wie VLANs oder Teaming in Eigenregie an, das
Gastbetriebssystem muss diese Funktionen weder kennen noch unterstützen, um sie zu nutzen.

Da sich abzeichnet, dass Virtualisierung künftig auf breiter Ebene zum Einsatz kommen wird,
gehen die Hersteller auch vermehrt dazu über, die Software fest mit der Hardware zu koppeln. So ist
beispielsweise Xenserver von Citrix auch als Embedded-Version (Xenexpress OEM-Version) erhältlich,
die sich nach dem Willen des jeweiligen Anbieters auf einer Speicherkarte oder einer Festplatte
zusammen mit den Treibern für die Hardware vorinstallieren lässt. In die gleiche Kerbe schlägt
Vmware: Der aktuelle Marktführer stellte vor kurzem einen Embedded-Hypervisor vor, der nur 32 MByte
groß ist. Damit passt die Software auch in kleinste Speicherkarten oder Flash-Speicher. Selbst
BIOS-Anbieter wie Phoenix suchen ihr Heil in der Virtualisierung. Phoenix arbeitet derzeit an "
Hypercore", einem Virtual Machine Monitor (VMM), der sich direkt aus dem Computer-BIOS starten
lässt. Damit setzt die Virtualisierung schon zu einem sehr frühen Zeitpunkt – beim Hochfahren des
Rechners – an. Dies könnte ein Rezept gegen Schadsoftware wie "Blue Pill" darstellen, die ganz
explizit Virtualisierungsfunktionen nutzt, um sich zu tarnen.

Aller Anfang ist die CPU

Als eines der Hauptargumente für die Virtualisierung gilt die bessere Auslastung des Prozessors
durch die auf dem Host laufenden VMs. Dazu muss die CPU aber auch in der Lage sein, mit den
Anforderungen der Gastbetriebssysteme Schritt zu halten. Ein AMD- oder Intel-Prozessor mit
Virtualisierungsunterstützung und mehreren Kernen ist also Pflicht – am besten gleich ein System
mit zwei CPUs. In sehr großen Einsatzszenarien bietet sich ein Blade-Server an, andernfalls eine
Dual-CPU-Maschine. Wie viele VMs auf den Host passen, ist im Vorfeld schwer zu bestimmen. Bei
Anwendungen wie Datenbanken liegt die Hauptlast auf der I/O-Seite: Dort bildet eher die Netzwerk-
und Massenspeicherschnittstelle das Nadelöhr. Ein Spam- und Virenfilter hingegen fordert vor allem
die CPU – der Prozessor kann gar nicht schnell genug sein. Professionelle Lösungen erlauben das
Zuteilen von Rechenleistung oder ganzen Prozessorkernen zu einzelnen VMs per Managementsoftware.
Zudem bestimmt auch die Art der Virtualisierung den Leistungs-Overhead pro VM: Paravirtualisierung
macht sich nur mit ein paar Prozentpunkten bemerkbar, vollständige Virtualisierung liegt in der
Regel bei 15 und mehr Prozent.

Wie viele CPUs und Kerne die Software unterstützt, ist in der Regel eine Lizenzfrage. Jeder
Hersteller lässt sich seine Prozessorunterstützung teuer bezahlen, oft unterscheidet nur die Anzahl
der CPUs oder Kerne pro VM ein Einsteigerprodukt von der Enterprise-Variante. Wer
64-Bit-Betriebssysteme – sei es als Host oder als Gast – nutzen will, sollte ebenfalls aufpassen:
Nicht jeder Anbieter erlaubt alle Kombinationen wie 64-Bit-Gast auf 32-Bit-Host.

Fast noch entscheidender als die CPU erscheint jedoch der Arbeitsspeicher im Host. Hier gilt nur
eine Regel: je mehr, desto besser. Grenzen setzen nur die physische Kapazität im Server und – wie
bei den Prozessoren – die Lizenzpolitik. Oft sind VMs auf eine Obergrenze von 1 GByte limitiert,
erst der Erwerb weiterer Lizenzen schaltet den Zugriff auf Speicher oberhalb der 1024-MByte-Grenze
frei.

Die Hardwareunterstützung endet allerdings nicht bei Speicher und CPU. Interessant für den
Anwender ist oft, wie eine VM auf hardwarenahe Anschlüsse zugreifen kann, zum Beispiel auf den USB-
oder Parallel-Port. Dies kann durchaus Schwierigkeiten bereiten: manchmal schon bei ganz "harmlosen"
Geräten wie einem USB-Brenner – ganz sicher aber, wenn Dongles für Softwareprodukte notwendig
sind, die in der VM laufen sollen.

Real alles im Griff

Systemmanagement in großen Umgebungen ist schon mit "realen" Servern eine Herausforderung,
virtuelle Maschinen vereinfachen die Situation keineswegs und erfordern andere Schwerpunkte. Fast
alle Prozesse, die früher vor dem Betrieb eines Servers notwendig waren, sind bei VMs hinfällig:
Eine Bestellung für einen Server schreiben, die Kosten rechtfertigen, Hardwareauswahl treffen,
Server aufbauen und installieren etc. Die VM entsteht durch Mausklick und wartet auf ihren Einsatz.
Management-Tools, die auf diese Besonderheiten eingehen, sind deshalb sehr gefragt. Die Hersteller
von Virtualisierungssoftware haben oft eigene Produkte im Angebot – wie zum Beispiel Vmware mit
Virtualcenter. Mittlerweile stürmen aber auch viele Fremdanbieter den Markt. So ist das Produkt "
Vkernel" des gleichnamigen Herstellers eine Appliance, die die virtuelle Umgebung automatisch
absucht und Statistiken erstellt. Der Anwender kann dann – in Virtualcenter integriert – Reports
über Lizenznutzung und -kosten, Auslastung und andere Parameter generieren. Ähnliche Informationen
liefert auch "Powerrecon Virtual Infrastructure Edition" von Platespin. Eine Variante von
Powerrecon, die nur Inventory-Management beherrscht, ist übrigens kostenlos erhältlich. Mit solchen
Tools lässt sich auch die Frage nach der korrekten Abrechung von Rechenzeit angehen. Die klassische
Formel – ein Server, eine Anwendung, eine Kostenstelle – geht mit Virtualisierung nicht auf: Das so
genannte Chargeback stellt IT-Administratoren in großen Firmen durchaus vor Probleme.

Zudem verhält sich eine frisch generierte, startende VM im Prinzip nicht anders als ein "echter"
neuer Server: Ohne Betriebssystem und Applikation kann sie der Anwender nicht nutzen. Lässt sich
die Virtualisierungssoftware daher mit einer Deployment-Umgebung verbinden, so kann dies zu
Synergien bei der Bereitstellung und einer Reduzierung des Administrationsaufwands führen.
Interessenten sollten in die Frage nach der richtigen Virtualisierungslösung auch den Aspekt der
passenden Management- und Deployment-Lösung einbeziehen.

Was an täglichen Managementaufgaben anfällt und zu bewältigen ist, hängt stark vom Einsatzfeld
ab. Testumgebungen benötigen schnelles Re-Deployment und Skriptunterstützung. Unternehmenswichtige
Anwendungen müssen durch automatisches Failover geschützt werden. Die Liste der möglichen Features
ist lang: Ein Anwender wird das Gruppieren von VMs zu einem Team hilfreich finden, ein anderer das
automatische Verschieben einer VM auf einen leistungsfähigeren Host, wenn die Ressourcen zu knapp
werden. Am besten ergibt sich ein klares Bild der eigenen Anforderungen und eingesetzten Prozesse
aus der "realen" Umgebung, um entscheiden zu können, ob die Virtualisierungslösung dort
hineinpasst. Dazu gehört auch das Backup. Für die meisten Backup-Programme stellt eine VM nichts
anderes dar als eine große, geöffnete Datei. Die Software muss mit solchen Dateien allerdings
umgehen können. Gelegentlich ist auch ein spezieller Backup-Agent für die VM verfügbar, was aber zu
Lizenzkosten durch den Backup-Hersteller führen kann. Virtualisierungsunterstützung kann allerdings
noch weiter gehen: So ist Symantecs Backup Exec in der Lage, Sicherungsdaten eines realen Servers
zu konvertieren und als VM zu mounten – ideal bei einem Totalausfall des Servers.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+