Im Serverbereich geht der Trend zu immer mehr Flexibilität bei wachsender Leistungsdichte, um mit den sich schnell verändernden Anforderungen der globalen Wirtschaft Schritt halten zu können. Gleichzeitig steigen auch die Ansprüche an die Zuverlässigkeit, Hochverfügbarkeit und Offenheit der Systeme. Vor diesem Hintergrund wächst der Markt für standardbasierte Serversysteme kontinuierlich an, während der für proprietäre RISC-Systeme rückläufig ist.
Mittlerweile können die standardbasierten Systeme gegenüber der "alten" Architektur in allen
Bereichen punkten. Und mit technischen Innovationen gelingt es, die spezifischen Vorteile der
Standardarchitektur insbesondere bei Flexibilität und Skalierbarkeit immer besser zur Geltung zu
bringen. Für das Jahr 2006 stehen eine Reihe solcher Innovationen in Aussicht, die entweder neu auf
den Markt kommen oder bestehende Konzepte zu noch leistungsfähigeren Lösungen ausbauen sollen.
Dabei geht es einerseits um eine Leistungssteigerung der einzelnen Komponenten wie CPU und
Speicher. Eine ganz entscheidende Rolle spielen intelligente Technologien, die helfen, vorhandene
Ressourcen optimal auszunutzen. Im Grunde werden in standardbasierten Umgebungen bekannte Ansprüche
wie optimale Lastverteilung unter den spezifischen Gegebenheiten bei Hard- und Software neu
definiert.
Eine wesentliche Komponente in diesem Zusammenhang ist die Virtualisierung der
Hardwareressourcen. Von ihr wird erwartet, dass sie sich im Volumenmarkt für standardbasierte
Systeme im Jahr 2006 durchsetzt, weil sie durch die Möglichkeit der Serverkonsolidierung
Effizienzsteigerungen und Flexibilisierung der Ressourcen verspricht, die unmittelbar positiv auf
der Kostenseite zu Buche schlagen.
Mit Virtualisierung bezeichnet man die Möglichkeit zur Ressourcenteilung. Ungünstige
Wechselwirkungen zwischen den einzelnen Nutzern können dadurch weit gehend ausgeschlossen werden.
Ein physikalisches Serversystem wird hierbei virtuell in mehrere Systeme aufgeteilt, sodass es
mehreren Betriebssystemen (und damit deren laufenden Anwendungen) vorgibt, alleiniger Nutzer des
Systems zu sein, obwohl sich tatsächlich mehrere Betriebssysteme (und Anwendungen) die
Systemressourcen (Prozessoren, Speicher, Storage, Netzwerke, Peripherie) teilen. Diese Teilung der
Ressourcen ist gegenüber den Betriebssystemen und Anwendungen transparent und wird in der Regel von
einem so genannten "Virtual Machine Monitor" (VMM) geregelt und überwacht. Der VMM ist in der Lage,
gleichzeitig mehrere logische und komplette Serversysteme nach außen abzubilden und zu verwalten.
Aktuelle Virtualisierungslösungen im Volumenmarkt basieren meist auf einer softwaremäßigen
Emulierung des VMM. Solche Lösungen sind beispielsweise von Vmware, Microsoft oder dem Projekt Xen
im Linux-Umfeld auf dem Markt. Damit können nun gleichzeitig mehrere verschiedene Applikationen in
ihrer eigenen Systemumgebung auf dem Server ablaufen, die völlig unabhängig von den oftmals
untereinander inkompatiblen Anforderungen anderer Anwendungen sind. Bei Virtualisierung auf
Softwareebene handelt es sich um ein Host-Betriebssystem, unter dem alle Partitionen als Gast
ablaufen. Kontrolle und Abbildung der virtuellen auf die physikalischen Ressourcen erfolgt über das
Host-System. Von Nachteil ist, dass Effizienz, Leistungsfähigkeit und Sicherheit unter Umständen
stark beeinträchtigt werden.
Virtualisierung lässt sich allerdings auch auf Hardwareebene effizient unterstützen, so wie es
etwa die Intel-Virtualisierungstechnologie (Vanderpool – VT) vorsieht. Dabei wird eine
Virtualisierung aller Hardwarekomponenten vorgenommen und der jeweiligen Software über den VMM zur
Verfügung gestellt. Da bei VT die zu Grunde liegende Hardware zusätzlich Funktionalitäten zur
Unterstützung eines VMM integriert, bekommt man eine extrem leistungsfähige, zuverlässige und
flexible Servervirtualisierungsumgebung (Bild 1).
Virtualisierung erlaubt es durch Partitionierung in mehrere so genannte "Virtuelle Maschinen"
(VMs), die vorhandenen Serverressourcen, mehrere verschiedene Betriebssystemumgebungen und deren
Anwendungen gleichzeitig auf einem einzigen Server ablaufen zu lassen. Jede der VMs arbeitet und
verhält sich wie ein eigener und völlig selbstständiger Server.
Mit der Virtualisierung wird eine erhebliche Reduktion der Servermanagement- und Wartungskosten
erreicht. So lassen sich hiermit beispielsweise hunderte von Servern auf einige Zehnfachsysteme
konzentrieren, Serverauslastungen von zehn Prozent und weniger können auf über 60 Prozent
gesteigert werden. Die Notwendigkeit, Server bei steigenden Anforderungen physikalisch zu erweitern
verringert sich, und somit lässt sich die Komplexität von Netzwerken überschaubar halten. Ein
weiteres Beispiel für die Vorteile der Virtualisierung liegt darin, dass virtuelle Hardwaretreiber
für ein sehr breites Spektrum von Komponenten und Betriebssysteme verfügbar sind. Setzt ein
Unternehmen eine "alte" Anwendung ein, die zum Beispiel noch unter Windows NT4 läuft, ist es sehr
viel einfacher, die Applikation unter einer eigenen virtuellen Server-(VM-)Partition zu betreiben,
als bei neuerer Hardware nach Gerätetreibern für ein älteres Betriebssystem zu suchen.
Ein weiterer Trend, der die Ressourcen der Hardware optimal ausnutzt, ist die Integration mehrerer Prozessorkerne auf einem Chip. Diese unter der Bezeichnung Multi-Core bekannte Implementierung wird sich im Jahr 2006 zunehmend durchsetzen. Den Einstieg bilden Systeme mit zwei Prozessorkernen (Dual-Core). Damit lassen sich zwei Threads im selben Prozessor parallel verarbeiten. Das führt zu einem höheren Durchsatz und der effizienteren Ausnutzung der vorhandenen Transistoren. Insgesamt steigt die Verarbeitungsleistung deutlich, weil weniger Threads in der "Warteschleife" landen. Verstärkt wird dieser Trend noch durch Technologien wie Hyper Threading, bei dem ebenfalls zwei Threads parallel verarbeitet werden können, indem sich der Prozessor virtuell wie zwei CPUs verhält. In der Kombination dieser beiden Technologien entsteht eine Architektur, bei der schon jetzt vier Threads gleichzeitig bearbeitet werden können (Bild 2). Weitere Ausbaustufen mit noch mehr Cores werden folgen. Gleichzeitig ist zumindest bis 2010 davon auszugehen, dass Moore?s Law weiterhin gilt, wonach sich innerhalb von jeweils etwa 24 Monaten die Anzahl der integrierten Transistoren auf einem Chip verdoppeln lässt.
Darüber hinaus verspricht die Technik mit mehreren Kernen, besonders Strom sparend zu arbeiten. Angesichts größter Packungsdichten zum Beispiel in Bladeservern - einem weiteren stabilen Trend im Markt - werden Stromspareigenschaften und die niedrige Wärmeentwicklung der Prozessoren zunehmend zum kritischen Faktor.
Die überwiegende Mehrheit der 2006 zum Einsatz kommenden neuen Enterprise-Systeme werden
64-Bit-Computing unterstützen. Dadurch entsteht die Möglichkeit, mit 64 Bit weiten Adressen direkt
auf den Hauptspeicher zugreifen zu können. Dies erlaubt es, riesige Datenmengen im direkten
Speicherzugriff zu halten und verarbeiten zu können.
Nachdem sich in der letzten Zeit die Adressierung des Hauptspeichers als Engpass herausgestellt
hatte, verspricht die Einführung von Fully Buffered DIMMs (FB-DIMMs) hier eine deutliche Entlastung
und die Möglichkeit der Beschleunigung des Speicherdurchsatzes. Mit zunehmender Taktfrequenz des
Prozessors konnten vom Controller immer weniger DDR-Speicherbänke adressiert werden. Daran änderte
auch die höhere Performance moderner DDR2- und künftig DDR3-Module nichts. Der Kern des Problems
lag hier in der parallelen Anbindung der Speicherbänke an den Prozessor. Beim Einsatz von FB-DIMMs
werden die Speicherbänke dagegen seriell angesteuert. Ein so genannter Advanced Memory Buffer (AMB)
puffert die Signale und Daten zwischen Prozessor und Hauptspeicher und sorgt für die effizente
Verteilung innerhalb und zwischen den DIMMs. Dadurch kann die nutzbare Hauptspeicherkapazität
gegenüber parallel angebundenen DIMMs deutlich gesteigert werden. Darüber hinaus lassen sich so nun
auch parallel Lese- und Schreibvorgänge organisieren, was die Verarbeitungsgeschwindigkeit
zusätzlich beschleunigt. Das serielle Ansteuerungskonzept hat außerdem zur Folge, dass sich die
Server hinsichtlich ihrer Hauptspeicherkapazität einfacher skalieren lassen. Die AMBs sitzen
nämlich auf dem DIMM und werden mit ihm ausgetauscht. Dadurch können ohne Änderungen am Board neue
Speicherbänke mit neuen Technologien sehr einfach in den Server eingebaut werden.
Auch im Bereich Input/Output (I/O) setzt sich der serielle Verarbeitungsansatz zunehmend durch.
Mit PCI Express steht hier eine mittlerweile bewährte Technik zur Verfügung. Sie bietet die Gewähr
dafür, die Kapazitäten und Möglichkeiten von 1-GbE/10-GbE-Ethernet, Fibre Channel und Infiniband
voll ausschöpfen zu können. Auch für zukünftige Implementierungen von iSCSI und die Anbindung von
remote Storage, eventuell mit DAPL über Infiniband, ist man mit PCI-Express gerüstet.
Gleichzeitig sorgen (Bild 2) I/O-Beschleuniger wie die Intel I/O Acceleration Technology (I/OAT)
für einen noch schnelleren Transport der Daten an den richtigen Ort. Dem mit höheren Taktfrequenzen
zu Leibe rücken zu wollen, hat sich als untaugliches Mittel erwiesen. Intensive Untersuchungen
haben gezeigt, dass die Rolle der CPU für die Verarbeitungsgeschwindigkeit eine weit geringere
Rolle spielt, als zunächst angenommen. Vielmehr geht ein erheblicher teil der Performance durch
Datenbewegungen zwischen einzelnen I/O-Geräten, vom und zum Hauptspeicher und zwischen den diversen
Datenpuffern verloren. I/OAT geht diesen Overhead des Datentransfers auf der Plattformebene an. Auf
diese Weise lassen sich deutlich niedrigere Latenzzeiten und höhere Bandbreiten erzielen. Dies gilt
unter anderem auch für die Optimierung des TCP/IP-Protokoll-Stacks, beschränkt sich aber im
Gegensatz zu speziellen TCP/IP Offload Engines (TOE) nicht darauf, sondern unterstützt auch andere
Protokolle. Die Implementierung auf der Plattformebene lässt den Beschleuniger gegenüber
Anwendungen vollständig transparent erscheinen. Dadurch sind auf dieser Ebene keine Anpassungen
notwendig.
Bei einem notwendigen Ausbau der Serversysteme steht man vor der Entscheidung, ob man dem
Scale-out (Clustering) oder dem Scale-up (SMP-)Ansatz bei der Systemarchitektur folgt. Beide werden
künftig weiterhin im Markt verfügbar sein. Weder der Aufrüstung großer Server durch zusätzliche
Partitionierungen (Scale-up) noch dem Zusammenbinden vieler meist kleinerer Systeme zu einem
Cluster, auch an verteilten Orten, ist grundsätzlich der Vorzug zu geben. Es kommt vielmehr auf den
Einsatzzweck an. Typische Vertreter von Anwendungen für Scale-up sind Datenbanken (DB), Enterprise
Resource Planning (ERP), Business Intelligence (BI), Supply-Chain Management (SCM) und Customer-
Relationship-Management (CRM) E-Commerce-Lösungen. Beim Scale-out werden die (Server-)Ressourcen
verteilt, um eine hohe Skalierbarkeit und Zuverlässigkeit zu erreichen. Anwendungsbeispiele für
Scale-out-Lösungen sind alle parallelen und unabhängigen transaktionsorientierten Anwendungen wie
zum Beispiel parallele Datenbanken, jede Art von Webservern und so genannte "Farming"-Anwendungen,
bei denen es auf einen (Massen-)Durchsatz ankommt. Generell sind Cluster oft schon vom Ansatz her
auf einen bestimmten Zweck ausgerichtet. Das reicht von High- Performance-Ansprüchen im Bereich des
Supercomputings über Lösungen für besonders hohen Datendurchsatz bis zu Hochverfügbarkeitslösungen
mit diversen Konzepten zur Ausfallsicherung und Wiederherstellung der Systeme.
Unabhängig davon, ob im einzelnen Unternehmen der Trend mehr zu integrierten Systemen oder einer
auf mehrere Standorte verteilte Architektur geht – das Management der Server wird zu einer
zentralen Aufgabe der IT. Entsprechend positionieren sich derzeit die Anbieter von Softwarelösungen
zum Monitoring und Remote Management von Serverlösungen. Um diese Aufgaben weiter zu erleichtern,
oder – wie das Ansteuern von Offline-Systemen – überhaupt erst möglich zu machen, werden zunehmend
bereits auf Hardwareebene Managementkapazitäten eingebaut. Die zu erwarteten Vorteile liegen bei
den Effizienzsteigerungen durch weniger Vororteinsätze und einer feinkörnigeren präventiven
Kontrolle über die Serverfunktionen. Letzteres führt zu geringeren Ausfallzeiten. Ebenfalls nicht
zu vernachlässigen sind die gewachsenen Ansprüche beim Asset Management, wenn es darum geht, die IT
auch wertmäßig exakt zu betrachten. In diesem Zusammenhang spielt dann auch vermehrt das Thema
Compliance eine Rolle, einerseits bei der Frage von Lizenzen und Wartungsverträgen, andererseits im
Sinn von Regularien der Finanzwirtschaft wie Sarbanes Oxley oder Basel II. Nicht zuletzt erhöht das
mögliche Monitoring der Systeme in Echtzeit die Sicherheit des ganzen Netzwerks.