Mehr Kerne – mehr Maschinen
Rechnersysteme – Wie schon 2006 bestimmt auch in diesem Jahr das Thema Virtualisierung den Servermarkt. Auf Seiten der Betriebssysteme legt Linux weiter zu und bietet sich jetzt zunehmend auch für Clients an.

An dieser Stelle könnte der Trendartikel zum Thema Server aus dem Jahr 2006 mit geringfügigen Änderungen stehen, denn der wesentliche Trend bei Servern ist und bleibt Virtualisierung. Allerdings haben sich Soft- und Hardware im vergangenen Jahr weiterentwickelt. Die Prozessoren von Intel und AMD beherrschen in der Zwischenzeit eine Reihe von Virtualisierungskommandos. Damit verringert sich der Virtualisierungsaufwand des Hypervisors und die Performance virtueller Maschinen nimmt bei gleichzeitiger Ressourcen-Entlastung zu. Das setzt allerdings voraus, dass der Hypervisor an der Quelle, also direkt auf der
Hardware sitzt. Folglich können momentan nicht alle Virtualisierungsprogramme diesen Vorteil ausnutzen. Speziell »Hosted Products«, die auf einem bereits installierten Betriebssystem aufsetzen, kommen nicht an diese CPU-Ebene heran. Dabei kommt der Open-Source-Vorteil eines Produktes wie Xen positiv zur Geltung. Da Xen ohnehin einen modifizierten Kernel voraussetzt, integriert es gleich die VM-Kommandos. Jetzt kann Windows auch ohne paravirtualisierten Systemkern in einer virtuellen Maschine unter Linux laufen.
Eine wichtige Verbesserung gegenüber dem Vorjahr ist das erweiterte Softwareangebot. Vmware geht nicht mehr als weitgehend konkurrenzlose Lösung ins Rennen. Dennoch legt Vmware mit der Virtual-Infrastructure ein mächtiges Paket vor. Es unterstützt das zentrale Management einer ganzen Serverfarm und arbeitet mit 64- und 32-Bit-CPUs. Dank SAN-Anbindung lassen sich virtuelle Maschinen zur Laufzeit von Server zu Server verschieben.
Auch das Freeware-Projekt Xen entwickelt sich stetig weiter. Wie eingangs erwähnt unterstützt der Hypervisor jetzt auch Windows. Zudem lassen sich in der Zwischenzeit Gastsysteme grafisch installieren und müssen nicht mehr als fertiges Image eingespielt werden. Das findet auch bei kommerziellen Anbietern Anklang. So setzt Virtual Iron den Xen-Hypervisor als Basis ihrer Virtualisierungslösung ein und umgibt ihn mit einigen leicht zu bedienenden Verwaltungstools.
Auf der Desktop-Ebene versuchen Produkte wie Virtualbox oder Paralleles mit eigenen Konzepten Fuß zu fassen. Paralleles arbeitet mit fast jedem Gastsystem, auch denen, die Vmware nicht unterstützt wie OS/2. Virtualbox soll als serverbasierte Virtualisierung für Client-Umgebungen auftreten. Für homogene Netzwerke, die ohnehin nur ein Betriebssystem auf Servern zulassen, eignen sich Virtualisierungstools wie Virtuozzo. Das erzeugt einzelne abgeschottete Maschinen, die sich aber den Systemkern des Host-Systems teilen. Diese Lösung benötigt wesentlich weniger Ressourcen als eine komplett virtualisierte Maschine.
Dem Trend der Virtualisierung kommen die neuen CPUs nicht nur wegen der VM-Kommandos entgegen. Dem Trend der stets steigenden Taktfrequenz hat Intel mit der Core-Microarchitecture ein jähes Ende gesetzt. Plötzlich erledigen CPUs bei 2 GHz mehr Arbeit, als ihre Vorgänger bei 3 GHz. Und dazu brauchen sie gerade mal halb soviel Strom. Dafür drängen sich auf den Chips jetzt schon mindestens zwei Kerne pro CPU. Intel hat bereits Quad-Core-Prozessoren im Rennen und AMD lässt mit dem eigenen Vierkern-Design nicht mehr lange auf sich warten. Ein simpler Server mit zwei Sockeln mutiert somit zur Acht-Wege-Maschine. Da reguläre Standard-Systeme und Anwendungen nur selten acht Kerne auslasten können bietet sich Virtualisierung zwangsläufig an.
Dieser hohe Grad an Integration macht damit auch große Maschinen mit vielen Sockeln bis auf wenige Spezialanwendungen überflüssig – acht Kerne in einer 1-HE-Flunder dürften für 90 Prozent aller regulären Serveranwendungen heute genügen.
Wieder einmal steht Windows-Anwendern ein schweres Upgrade ins Haus. Die Einführung von Vista zwingt die IT-Verantwortlichen schon heute, einen Migrationsplan für Clients zu entwerfen und dann kann es auch nicht mehr lange dauern, bis ein neuer Windows-Server ins Haus steht. Parallel dazu hat sich aber auch Linux weiter entwickelt und bietet sich als ernstzunehmende Alternative für Clients an. Neue Distributionen verlangen vom Endanwender keine Shell-Kentnisse mehr, unterstützen alle gängigen System-Komponenten und auch das Software-Angebot für Linux-Desktops kann sich sehen lassen.
Die IT-Manager stehen vor einer großen Entscheidung. Die Frage, ob sie ihre Server virtualisieren, ist eigentlich schon beantwortet. Die Unternehmen müssen sich nur noch entscheiden, welche Technologie sie dazu einsetzen. Auf der Client-Seite fällt die Entscheidung schwerer. Wieder einmal konkurrieren ein einfaches, aber teures Windows-Update mit wenigen wirklich wichtigen funktionellen Neuerungen mit dem Radikalumstieg auf ein ganz anderes System.
Andreas Stolzenberger
ast@networkcomputing.de