Nach allgemeiner Darstellung spart Virtualisierung Hardwarekosten, verbessert den Durchsatz und erleichtert den Wiederanlauf nach Systemausfällen. Dies stimmt - zumindest teilweise. Doch viele Anwender haben inzwischen leidvolle Erfahrungen mit der Technik machen müssen.
Die Hersteller von Virtualisierungssoftware können voller Stolz auf viele Erfolge hinweisen. So
steigt durch Virtualisierung die Hardwareausnutzung nicht nur um einige Prozente, sondern
drastisch. So berichtet beispielsweise Netapp, dass man mit Hilfe der Virtualisierung die Zahl der
Server von 343 auf 177 praktisch halbieren konnte. Auch IBM meldet stolze Erfolge. So wurde die
Workload von 3900 physischen Servern auf 30 Maschinen der Serie Z9-Mainframe konsolidiert. Das soll
80 Prozent der Energie einsparen, was umgerechnet 1,3 Millionen Euro ausmacht. Folglich sehen viele
Werbeexperten bei den Anbietern die Virtualisierung bereits als Universalschlüssel zum grasgrünen
Rechenzentrum.
Analysten bestätigen das Potenzial. Laut Gartner liegt die gegenwärtige Auslastung bei
physischen Servern in der Größenordnung von fünf bis zehn Prozent. Das bedeutet eine theoretische
Einsparmöglichkeit im Verhältnis zehn bis zwanzig zu eins. Doch nicht nur die Hardwareeinsparung
wird von den Anbietern hervorgehoben. Auch ein vereinfachtes Systemmanagement soll den Admin fast
überflüssig machen, und der hohe Automatisierungsgrad bei Systemausfällen gilt als wichtigster
Schritt in Richtung eines automatischen Rechenzentrumbetriebs.
Mehr zum Thema:
http://llschnuerer.cmpdm.de//sites/microsites/virtualisierung/index.html" target="true">CZ Zone
Virtualisierung
Doch jede neue Technologie schafft auch neue Probleme. Und bei so tiefgreifenden Umwälzungen,
wie sie durch die Virtualisierung ausgelöst werden, sind es auch entsprechend weitreichende
Probleme, denen sich das IT-Management gegenüber sieht.
Da ist zunächst der Faktor Hardwarekosten. So berichten viele Anwender, dass zu Beginn ihres
Virtualisierungsprojekts als erstes diverse neue Hardware beschafft werden musste. In den meisten
Fällen handelt es sich dabei um Storage, denn die VMs auf einem physischen Server benötigen einen
schnellen Shared-Storage-Bereich, in dem die Core-Image-Dateien gehalten werden.
Häufig sind sogar neue Server nötig, denn kaum eines der vorhandenen Systeme eignet sich als
Host für die Konfiguration der neuen VMs. Selbst in den Ausnahmefällen, in denen sich einige der
vorhandenen Server für den Betrieb von vielen VMs eignen, müssen daran erhebliche
Hardware-Erweiterungen vorgenommen werden. Das Mindeste sind Memory-Erweiterungen, denn die
Performance der vielen VMs hängt stark vom verfügbaren Hauptspeicher ab. "Vor allem Anwendungen mit
intensiven Multithreading müssen weitestgehend im Memory gehalten werden, sonst gibt es Time-Out
bei den Usern", sagt Burton-Analyst Chris Wolf. Zu den Memory-Erweiterungen kommen dann noch
Verbesserungen am I/O sowie an der Netzwerk-Geschwindigkeit, denn alle Transaktionen der VMs müssen
durch denselben Hardware-Flaschenhals. "Unser gesamtes SAN ist nach der Einführung von
Virtualisierung komplett zusammengebrochen", berichtete Mark Jones, CIO von Corporate Express in
Sydney auf dem jüngsten Gartner-Summit.
Aber auch wenn alle diese Anforderungen erfüllt sind, ist die Hardware möglicherweise noch nicht
geeignet um alle Virtualisierungsvorteile voll auszuschöpfen. So ist einer der viel gepriesenen
Vorzüge das Verschieben einer VM von einem Server auf einen anderen im laufenden Betrieb. Doch
Vorsicht: "Das Verschieben einer VM von einer AMD- auf eine Intel-Plattform ist nur mit einem
Neustart möglich", warnt Wolf die CIOs und empfiehlt ihnen, auf eine einheitliche
Plattform-Struktur zu achten. Folglich können die Kosten für die notwendigen Hardwareerweiterungen
ganz schnell die Einsparungen bei der Serverkonsolidierung übertreffen.
Analysten sehen bereits einen solchen Trend zur Hardwarestandardisierung bei den Serverfarmen
und führen dieses als Grund dafür an, dass der Servermarkt trotz der rasanten Ausbreitung von
Virtualisierung
http://llschnuerer.cmpdm.de//sites/cz/themen/infrastruktur/article.html?thes=&art=/articles/2008023/31533665_ha_CZ.html">weiter
wächst. "Vor zwei Jahren gab es einen Virtualisierungseffekt beim Serverabsatz. Damals haben
die Early-Adopter mit ihren Pilotprojekten die VMs auf den vorhandenen Servern konsolidiert. Doch
eine breit angelegte Virtualisierung von hunderten oder gar tausenden Servern verlangt eine
einheitliche Plattformstrategie mit neuen Hochleistungsservern", sagt IDC-Analyst John
Humphreys.
Nächster Schwachpunkt: Die Performance. Vmware vergleicht nach Meinung des Analysten den
anfallenden Overhead in einem unrealistischen Benchmark: Man vergleicht die Performance von einem
physischen Server mit der Leistung von nur einer VM auf einem physischen Server. "Das ist ein
völlig unsinniges Umfeld, normalerweise sind acht bis zwölf VMs auf einem physischen Server – und
dann gehen die Zahlen drastisch runter", schimpft Wolf. Eine gute Gegenmaßnahme ist maximaler
Hauptspeicher sowie das Auslagern des Hypervisors in einen separaten Hardware-Bereich, so wie es HP
und Dell inzwischen mit Vmware und Xenserver anbieten – aber auch das heißt zunächst: Neue Hardware
muss beschafft werden!
Darüber hinaus unterschätzen viele CIOs auch die Softwareschwachstellen. Ein besonderes Problem
entsteht durch die einfache Duplikation von Anwendungen in weiteren VMs, denn für diese weiteren
Anwendungen sind häufig auch die entsprechenden Lizenzgebühren zu entrichten. Zwar sind diese Fälle
schwer auszumachen, da oft genug nicht einmal die eigenen Admins wissen, wie oft und wo eine VM
dupliziert und verschoben wurde, doch das entbindet nicht von der rechtlichen Verbindlichkeit.
Im Zusammenhang mit den Softwareproblemen gibt es auch zunehmende Sicherheitsbedenken. Während
über die potenziellen Risiken durch einen
http://llschnuerer.cmpdm.de//sites/cz/article.html?thes=&art=/articles/2008022/31521991_ha_CZ.html">Hackerangriff auf
den Hypervisor bereits viel geschrieben wurde, gibt es inzwischen auch ganz erhebliche
Compliance-Risiken, da eine Auditierung der Daten in einer VM ohne zusätzliche Tools praktisch
unmöglich ist. Hierzu muss man sich daran erinnern, dass eine VM praktisch nichts anderes als eine
Swap-Datei ist. Diese wird in einer Art Storage-Cloud gehalten, wo sie aber unbemerkt kopiert,
gelesen oder sogar physisch entfernt werden kann, sofern es sich um ein mobiles Laufwerk handelt.
Die Kreditkartengesellschaften haben das Risiko bereits erkennt und erwägen ein generelles Verbot
der Abrechnung von Kreditkartendaten auf VMs – zumindest solange, bis geeignete Schutz- und
Überwachungs-Tools vorhanden sind.
Neben den vielen Hardware- und Softwareschwierigkeiten gibt es auch noch ein drittes
Problemfeld: Zu wenig qualifiziertes Personal. Der gesamte Bereich Virtualisierung ist so neu, dass
gegenwärtig die meisten Admins ihr entsprechendes Wissen autodidaktisch erworben haben. "Zum Glück
sind die Restart- und Backup-Tools der Anbieter sehr gut, so dass unser ?Training-on-the-Job" keine
größeren Probleme verursachte", sagt schmunzelnd Mark Jones.
Bei der Einführung von Virtualisierung müssen komplexe Konfigurationsänderungen am Netzwerk, an
den Servern und beim Storage vorgenommen werden. Danach ist das gesamte System sorgfältig zu
überwachen um mit entsprechenden Anpassungen eine optimale Auslastung zu erzielen. Zwar bieten alle
Virtualisierungs-Lieferanten auch einen solchen Beratungs-Service an – aber der ist teuer. Und bei
mittleren Unternehmen kann damit die gesamte Virtualisierung unwirtschaftlich werden.
Aber auch Großunternehmen haben es nicht leichter. Hier müssen die verschiedenen Teams für
Server, Storage, Netzwerk, Sicherheit, Backup und Compliance ganz detailliert zusammenarbeiten –
ein oftmals hoffnungsloses Unterfangen.
Harald Weiss/CZ/pk