Zum Inhalt springen

Schnell und virtuell

Konsolidierung – Server mit zu viel Kraft lassen teure Ressourcen ungenutzt brachliegen. Virtualisierte Server nutzen die Hardware optimal aus und lassen sich einfach verwalten.

Autor:Andreas Stolzenberger • 27.9.2007 • ca. 2:55 Min

Zwei wesentliche Hardwaretrends bestimmen die neuen Serversysteme: 64-Bit-Extensions und Dual-Core-CPUs. Unterm Strich bedeutet das in erster Linie einen enormen Leistungsschub. Die Frage dabei bleibt jedoch, was fängt der Anwender mit dieser Rechenpower im Server an? Nicht jeder IT-Manager betreibt große Datenbanken, die Anfragen tausender Mitarbeiter zügig beantworten müssen. Der »Otto-Normalserver« kommt spielend mit einer einzelnen 32-bittigen 2-GHz-CPU aus. Die Antwort steckt in einer weiteren Trend-Technologie, die sich etwas schleppender auf dem Markt etabliert: Virtualisierung.

Noch müssen Tools wie »VMWare« die vorliegende Hardware etwas an der Nase herumführen, um Gastsystemen eigene, abgeschottete virtuelle PCs vorzugaukeln. Das kostet Rechenzeit und zieht die Performance einzelner virtueller Maschinen in den Keller. AMDs »Pacifica« und Intels »Vanderpool« nehmen der Virtualisierungssoftware einen wesentlichen Teil ihrer Arbeit ab und verfrachten das Gros der Maschinenvirtualisierung in die CPU selbst.Wieder einmal führt die PC-Architektur eine Technologie ein, die es bei Großrechnern schon seit Jahrzehnten gibt. Dank Virtualisierung lassen sich viele Server auf einer einzigen Hardware betreiben. Dies setzt im Gegenzug voraus, dass diese Plattform entsprechend stabil arbeitet. Ein Hardwarefehler legt bei einem konsolidierten Server gleich mehrere Systeme lahm.

Um die Virtualisierung nutzen zu können bedarf es eines passenden Hypervisors. Diese Software kontrolliert die CPU und die virtualisierten Systeme. Dabei kann der Anwender in der Zwischenzeit auf eine Auswahl verschiedener Lösungen zurückgreifen. Hersteller wie Vmware verfolgen mit dem ESX-Server einen weitgehend Betriebssystem-unabhängigen Ansatz. Der ESX-Server übernimmt mit einem eigenen Systemkern die Maschinensteuerung und kann virtuelle Maschinen mit Windows, Linux, Solaris, Netware und BSD parallel verwalten. Auch Microsoft verspricht mit dem »Virtual Server« die Unterstützung von Nicht-Microsoft-Gastsystemen. Allerdings setzt der Virtual-Server auf einen Windows-2003-Server als Systembasis auf. Das freie Xen läuft unter Linux und setzt ein Verfahren namens Paravirtualisierung ein.

Das verspricht mehr Leistung innerhalb der Gastsysteme, fordert dabei allerdings einen modifizierten Systemkern der Gäste. Xen will künftig auch die CPU-eigenen Virtualisierungsfunktionen nutzen und damit auch Systeme ohne Kernelmodifikation in virtuellen Maschinen betreiben. Auch bei der noch verbliebenen Risc-Konkurrenz aus dem Hause IBM und Sun steht Virtualisierung hoch im Kurs. Prozessoren mit mehreren Kernen haben beide Hersteller schon länger im Programm. Bislang benötigte IBM für ihre AIX-Server eine dezidierte Konsole, um die virtuellen Maschinen innerhalb des Rechners zu managen. Neuere Einsteigerserver können das nun ganz ohne externe Konsole, womit Power-5- Server auch für kleinere Unternehmen interessant werden.

Sun setzt mit dem T1-Prozessor auf massives Multithreading.Vier Threads verarbeitet jeder der acht CPU-Kerne. Dabei macht sich Sun zunutze, dass kein Thread kontinuierlich CPU-Zeit benötigt. Irgendwann kommt es in jeder Instruktionsverarbeitung zum Cache-Miss und damit zu einer langen Wartezeit, bis die fehlenden Daten aus dem Arbeitsspeicher in die CPU gelangen. Einen wartenden Thread legt die CPU dann kurzerhand beiseite und arbeitet mit einem anderen weiter. Suns Architektur geht weg von einzelnen CPUs mit hoher Leistung hin zu vielen parallelen Kernen mit vergleichsweise schwacher Power. Dieses Konzept geht sicher für viele Anwendungsszenarien auf, vorausgesetzt natürlich, die Software spielt mit. In Solaris 10 baut der Hersteller dabei seine eigene Virtualisierungslösung ein. Hierbei setzt Sun auf Container, getrennt voneinander arbeitende Systeminstanzen, die sich jedoch den Systemkern teilen.

Etwas ruhiger wird es hingegen um Hype-Themen der vergangenen Jahre. Server-based-Computing bleibt zwar ein Trend. Terminal-Server mit Thin-Clients haben sich aber nicht auf breiter Front durchgesetzt. Schuld daran sind der hohe Verwaltungsaufwand und viele gängigen Applikationen, die sich mit Terminal-Servern nur schlecht einsetzen lassen. Dagegen haben sich viele Standard-Applikationen weiter entwickelt und setzen von sich aus auf eine Client-Server-Architektur, so dass die wesentliche Applikationslogik und die Datenhaltung auf dem Server ablaufen.

Auch beim Thema Blades wird es ruhiger. Da Standardserver mit ihrer enormen Rechenleistung zusammen mit einer Virtualisierungslösung bereits die Arbeit mehrerer Maschinen erledigen können, sinkt der Bedarf an dicht gedrängten Servern mit moderater Leistung. Wenig Neues verspricht Intels Itanium-Architektur. Dank der 64-Bit- Erweiterungen der x86-Prozessoren bleibt die Mehrzahl der PC-Server- Anwender auf der bekannten Plattform, zumal diese eine sanfte Migration verspricht. Nur wenige High-Performance-Computing-Szenarien und einige Highend-Applikationen setzen auf den Prozessor.

Andreas Stolzenberger
ast@networkcomputing.de