Sicherheit vor Geschwindigkeit
Buyer’s Guide: Server – Die Anforderungen an Server haben sich gewandelt. Nicht die reine CPU-Leistung zählt, sondern Wartung, Ausfallsicherheit I/O-Leistung und Kompatibilität.


Server entwickeln sich auf einem eigenen Technologiepfad, parallel zu, aber dennoch getrennt von Clients und Workstations. Bei Arbeitsstationen geht es in erster Linie darum, einzelnen Anwendungen möglichst viel Rechenleistung zur Verfügung zu stellen. Server müssen hingegen sehr viele parallele Aufgaben erledigen, die zwar viel I/O- aber vergleichsweise nur wenige CPU-Ressourcen beanspruchen. Hinzu kommt, dass Server ohne Ausfälle rund um die Uhr arbeiten müssen und entsprechend redundante Geräte für kritische Funktionen enthalten.
Die technischen Differenzen zwischen Client und Server beginnen bereits bei den Prozessoren. Server-CPUs enthalten größere Caches, nutzen schnellere Speicherinterfaces und beherrschen eine Cohärenzprotokoll für den SMP-Betrieb (Symmetrical Multiprocessing). Server-Chipsets adressieren größere Speichermengen als Clients und setzen mehr Memory-Kanäle ein. Im Gegenzug finden sich in Servern keine AGP- oder PCI-Express-x16-Steckplätze für Grafikkarten. Server-Southbridges stellen eine ganze Reihe von PCI-X- und -Express-Bussen zur Verfügung, um viele I/O-Geräte mit hoher Geschwindigkeit ansprechen zu können. Ein guter Server integriert zudem alle Standardschnittstellen wie mindestens zwei LAN-Ports und SAS/SCSI- oder S-ATA-Raid-Controller.
Baseboard-Management-Controller (BMC) prüfen den Zustand der Serverhardware, von den einzelnen Spannungen über Lüftergeschwindigkeiten bis hin zu Temperaturfühlern in verschiedenen Gehäusebereichen. Über das IPMI (Intelligent-Plattform-Management-Interface) kann der Verwalter die Daten des BMC abrufen, aber auch betriebssystemunabhängige Werte wie Bios-Einstellungen modifizieren. Immer häufiger finden sich ToE-Adapter auf Serverboards, die den CPUs den IP-Protokollstack abnehmen und somit die LAN-Performance bei sinkender CPU-Last verbessern. Zum Standard in Servern gehören bald auch Remote-Access-Controller (RAC). Die leiten die Server-Konsole via LAN auf den Arbeitsplatz des Administrators um. Dieser kann über den Web-Browser den Server ein-/ausschalten, konfigurieren und lokale CD- und Floppy-Laufwerke als Installationsmedien an den RAC übergeben.
Cores, Xeons und Opterons
Zwar arbeiten die x86-CPUs von Intel und AMD weitgehend kommandokompatibel, ihre Implementierungen auf Server-Boards weichen jedoch sehr stark voneinander ab. Das hat, je nach Einsatzgebiet, Vor- und Nachteile. Die Lowend-CPUs wie der Celeron oder Sempron eignen sich nur in den seltensten Fällen für den Servereinsatz und sind bestenfalls in kleinen Appliances zu finden. Doch reguläre Desktop-CPUs können im Einsteigerbereich für simple Serveraufgaben genügen. Intels »Core«-CPUs setzen auf die neue Mikroarchitektur des Herstellers. Sie liefern dadurch bei geringer Taktrate und wenig Stromverbrauch eine recht hohe Rechenleistung. Die verfügbaren Chipsätze nutzen DDR2-Speicher mit einer guten Memory-Performance. Die Southbridges liefern aber nur eine geringe Zahl von I/O-Kanälen. Ähnliches gilt für AMDs Athlon-64-Prozessoren. Hier gibt es aber Southbridges verschiedenster Hersteller, die sich nicht alle für den Servereinsatz eigenen. Gut beraten sind Verwalter mit der AMD 8xxx-Chipserie, die von vielen Systemen direkt unterstützt wird.
Intels Xeon-5100er-Server setzt auf die neue Core-Architektur gemeinsam mit Server-Erweiterungen. Das Plattform-Design »Bensley« adressiert maximal zwei CPUs mit je zwei Kernen. Das dazugehörige Chipset 5000 bindet jede CPU über einen eigenen Front-Side-Bus an und greift über vier Speicherkanäle auf Fully-Buffered-Dimm-Speichermodule (FB-Dimm) zu. Diese besonderen DDR2-Speicher liefern kürzere Antwortzeiten als reguläre DDR-Module und sorgen für Fehlerkorrektur. Im Gegenzug erzeugen sie mehr Abwärme als herkömmliche Speichermodule und benötigen mehr Strom.
Dem entgegen stellt AMD seine Opterons der 2xx-Serie. Jede dieser CPUs verfügt über zwei integrierte Speichercontroller und setzt bis zu zwei Kerne ein. Die Kommunikation zwischen maximal zwei CPUs und der Peripherie erfolgt über Hyper-Transport-Links. Als Chipsets dienen reguläre HT-Brücken von Herstellern wie AMD oder Nvidia, wie sie auch in Client-PCs zum Einsatz kommten. Dank HT gibt es bei AMD kein besonderes Server-Chipset.
Im direkten Vergleich der Zwei-Wege-Designs schafft Intel aktuell ein wenig bessere Performancewerte bei der CPU-Rechenleistung und dem Speicherzugriff. AMD hingegen verfügt über die simplere und damit günstigere Zwei-Wege-Architektur. Zudem liefern die Hyper-Transport-Links -- bei einer entsprechenden Implementierung – eine wesentlich größere I/O-Bandbreite als Intels 5000er-Chipsatz.
Wer mehr als zwei CPUs und damit vier Kerne benötigt, kommt aktuell nicht um AMD herum. Noch offeriert Intel keinen MP-Chipsatz und keine MP-Version des Xeon 5100. Die Opteron-8xxx-CPUs können mit den gleichen Southbridge-Chipsätzen wie die 2xx-Versionen arbeiten. Dafür lassen sich Server mit maximal acht Prozessoren zu je zwei Kernen realisieren. Dabei spielt es dann auch keine Rolle mehr, dass AMD aktuell noch reguläre DDR-Speichermodule statt schnellerer DDR2-Chips verwendet. Ein Acht-Wege-Server nutzt 16 unabhängige Memory-Kanäle, und das dürfte ausreichen.
Risc und Epic
Wer besondere Anforderungen an die Rechen- oder I/O-Leistung hat, setzt auf Risc- oder Epic-Server, die bis zu 64 Prozessoren oder mehr skalieren. HP nutzt Intels Itanium-CPU, die unter HP-UX, Linux oder Windows arbeitet. IBM verwendet den hauseigenen Power-5+-Prozessor, der mit die schnellste CPU auf dem Markt ist. Im Gegenzug sind IBMs Power-Server in größeren Ausbaustufen recht teuer. IBM arbeitet mit Linux, AIX oder i/OS, dem Nachfolger von OS/400. Sun setzt nach wie vor auf die hauseigenen Ultrasparc-CPUs, obwohl deren Leistung nicht mehr zeitgemäß ist. In Kürze sollen die gemeinsam von Fujitsu und Sun entwickelten Server die großen Sun-Maschinen ablösen. Für bestimmte Bereiche liefert Sun zudem den T1-Prozessor, der als Single-CPU-Design 16 einfache Threads simultan abarbeiten kann. Diese Serverarchitektur eignet sich gut für einfache Netzwerkdienste.
Luft und Strom
Unabhängig von der verwendeten CPU- und Board-Architektur muss ein moderner Server heute ein durchdachtes und erprobtes Gehäusedesign vorweisen. Das setzt auf jeden Fall ein gutes Kühlungskonzept mit definierten Luftwegen, passiven Kühlkörpern auf aktiven Komponenten und Hot-Swap-fähigen, redundanten Ventilatoren voraus. Dazu gehören Hot-Swap-fähige Plattensteckplätze. Bereits kleine Server sollten doppelte Netzteile enthalten. Beim Formfaktor hat der Kunde in der Regel die Wahl zwischen 1- bis 7-HE-Rackmount oder Tower. Nur Anwender mit einer sehr hohen Serverdichte sollten dabei auf 1-HE-Flundern zurückgreifen. Das flache Design fordert oft Abstriche bei der Redundanz und Ausbaufähigkeit. Auch die in den vergangenen Jahren stark propagierten Blades eignen sich nur für besondere Anwendungsfälle mit hohen Anforderungen an die Rechenleistung. Das beste Preis-Leistungs-Verhältnis bekommt der Anwender in der Regel bei 2-HE-Rackmountmaschinen oder 5-HE-Towern.
Intel und AMD führen Virtualisierungsfunktionen in ihren x86-64-Prozessoren ein. Intel offeriert VT (Virtualisation-Technology) bereits im Xeon 5100. AMD bringt diese Funktion (Pacifica) mit den überarbeiteten Opteron-CPUs, welche dann auch DDR2-Speicher verwenden. Die VT-Features nutzen Hypervisors wie VMware, so dass sich auf einem physischen PC effizienter mehrere virtuelle Server nebeneinander betreiben lassen.
Sowohl Intel als auch AMD wollen 2007 mit Vierkern-CPUs auf den Markt kommen und damit die Rechenleistung pro Sockel nochmals erhöhen. AMD unterstützt mit neueren CPUs dann auch DDR2-, später DDR3- und FB-Dimm-Speichermodule. Intel bringt mit dem Xeon 7100 einen vier-Wege-Serverchip auf den Markt, der allerdings noch auf der alten Netburst- und nicht auf der Core-Microarchitecture basiert.
Bei den Risc- und Epic-Prozessoren erhält der Itanium in Kürze einen zweiten Kern. Sun tüftelt am T2, der dann insgesamt 64 Threads in einer einzigen CPU simultan verarbeiten wird. Dabei soll die CPU auch besondere Co-Execution-Units für Kryptographie erhalten.
AMD erweitert die Leistungsfähigkeit des Hyper-Transport-Busses. Dritthersteller sollen künftig Chips mit besonderen Funktionen wie Java-Acceleration oder Verschlüsselung liefern, die sich direkt an den HT anbinden.
Fazit: Trotz immer schnellerer CPUs stehen bei aktuellen Servertechnologien Funktionen wie Management, Zuverlässigkeit und I/O-Leistung im Vordergrund. Nur damit lassen sich Trends wie Servervirtualisierung und -konsolidierung sicher in der Praxis umsetzen.
ast@networkcomputing.de