Serverrechner und Bladeserver

Evolution der Leistungsträger

17. Dezember 2007, 23:00 Uhr | Elmar Török/pf

Serverrechner sind heute zwar Massenware, und die herstellerübergreifende Vereinheitlichung ist weit fortgeschritten. Dennoch bleibt der Serverkauf für den Anwender immer noch eine ernste Angelegenheit: Unter Umständen sind sechsstellige Beträge im Spiel - da sollte der IT-Einkäufer die richtigen Punkte auf der Checkliste haben. Der Beitrag gibt einen Überblick über die wichtigsten Parameter für die Kaufentscheidung.

War früher ein Serverrechner Dreh- und Angelpunkt eines Netzwerks, so sind es heute sogar in
kleinen Unternehmen oft mehrere Systeme, die sich die Routineaufgaben teilen: File- und
Printservices, Messaging, Sicherheitslösungen wie Firewall oder Anti-Spam-/Antivirenfilter sowie
die diversen Anwendungen. Ein Serverkauf besitzt nicht mehr den Charakter der dramatischen
Weichenstellung, den er früher hatte. Doch obwohl viele Massenprodukte oft nur noch in Preis und
Logo differieren, kann die richtige Auswahl des Servers auch heute noch ausschlaggebend sein, ob
die Anwender mit der Leistung "ihrer" Programme zufrieden sind und ob die Entscheidung auch für die
nahe und mittlere Zukunft passt. Dass dabei mehr als die bloße Hardware eine Rolle spielt, steht
außer Frage.

Beim Serverkauf ist das Konzept wichtig, weniger die Maschine an sich – da sind sich die
Spezialisten aller Hersteller einig. Dazu gehören Faktoren wie Dauer und Umfang des
Wartungsvertrags, ob der Computer von einem Partner geliefert werden soll und welche
Qualifikationen dieser benötigt, sowie die Art der Anwendungen, die auf dem Server installiert
werden. Heute muss die erste Frage, die sich der potenzielle Käufer stellt, vermutlich lauten: "
Brauche ich überhaupt einen Server, oder lassen sich die gewünschten Aufgaben auch durch eine
virtuelle Maschine erledigen?" Letzteres ist durchaus denkbar, wenn auf vorhandenen Systemen
ausreichend freie Rechenkapazität und I/O-Bandbreite zur Verfügung steht.

Soll der neue Server tatsächlich physisch im Rechenzentrum Einzug halten, steht zunächst die
Frage nach dem Prozessor im Vordergrund. Im Gegensatz zu klassischen Desktop-CPUs besitzen
Server-CPUs heute mindestens zwei Kerne, enthalten größere Caches, nutzen schnellere
Speicher-Interfaces und können große Speichermengen adressieren. Im x86-Markt liefern sich die
Chiphersteller AMD und Intel zurzeit ein Kopf-an-Kopf-Rennen: Beide bieten mittlerweile CPUs mit
vier Kernen an, beide haben Virtualisierungserweiterungen in ihre Kerne eingebaut und beide
verfolgen das Prinzip des Onboard-Speicher-Controllers. AMD hat Letzteres schon realisiert, bei
Intel wird es noch eine Weile dauern – angekündigt wurde der Schwenk weg von den separaten
Speicher-Controllern und damit der Front-Side-Bus-basierenden Architektur bereits.

Welche CPU die bessere ist – darüber lässt sich "am grünen Tisch" keine klare Aussage treffen.
Die Entscheidung hängt vom Einsatzgebiet oder vom verwendeten Benchmark ab. Momentan haben Intels
Xeon-Prozessoren bei vielen Anwendungen die Nase vorn, wie die meisten Tests ergeben. AMDs Opteron
hingegen beherrscht Virtualisierungsaufgaben besser und spart deutlich beim Stromverbrauch, da sich
die Taktfrequenz für jeden Kern separat regeln lässt. Intel wiederum kontert mit der "Deep Power
Down Technology" und einem weiter ausgereiften Fertigungsprozess, der kleinere Strukturen und damit
weniger Energieverbrauch ermöglicht. Dennoch scheinen die Hersteller zurzeit mit Opteron-CPUs
sparsamere Server bauen zu können. Die AMD-Prozessoren ermöglichen auch längere Produktzyklen: Da
viele Entwicklungen sockelkompatibel umgesetzt sind, lassen sich Boards über zwei
Prozessorgenerationen – also bis zu vier Jahre – nutzen und erweitern. Dies kann ein Vorteil in
kleineren Unternehmen sein, wo man Server tatsächlich nach einer gewissen Zeit mit mehr Speicher
und schnelleren CPUs an die Erfordernisse anpasst. In größeren Unternehmen verschwinden Server nach
der Abschreibefrist meist bei einem Wiederverwerter.

Vier Kerne für ein Halleluja

Intel-Kunden hatten 2007 mehrere Monate lang das Privileg einen Vier-Kern-Prozessor kaufen und
einsetzen zu können, während AMD ihren Quad-Core Opteron erst im September dieses Jahres marktreif
hatte. Dies lag zu einem großen Teil am grundsätzlichen Design: Während Intel zwei
Dual-Core-Prozessoren auf einem Chipträger zu einer Quad-Core-CPU verheiratet, entwickelte AMD
einen nativen Quad-Core-Prozessor, der alle Kerne auf einem einzigen "Die" unterbringt. Ist dieser
Unterschied für den Anwender relevant? Bislang wohl nicht – dafür ist die Marktdurchdringung mit
Quad-Cores noch zu gering, was vor allem am Preis liegt. Wer mit einem oder mehreren
Vier-Kern-Prozessoren im Server liebäugelt, muss tief ins Budget greifen. Die Marktforscher von
Isuppli beobachten Preise, die um bis zu 170 Prozent über denen von Dual-Core-Prozessoren liegen.
Die Analysten rechnen mit zwei Jahren, bis die Kosten pro CPU so weit gesunken sind, dass diese
Systeme auf breiter Front zum Einsatz kommen. Im dritten Quartal 2007 ging Isuppli beim Anteil von
Quad-Core-Maschinen von etwa fünf Prozent aus, im vierten Quartal dürften es erst etwa sieben
Prozent sein. Mittlerweile dreht sich das Ankündigungskarussell weiter: Mitte November stellte
Intel einen ganzen Korb voller Prozessor- und Chipsatzneuheiten vor, darunter zwölf neue
Quad-Core-Chips mit Front-Side-Bus-Taktfrequenzen von bis zu 1600 MHz und Cache-Größen von bis zu
12 MByte.

Natürlich existieren auch Weiterentwicklungen bei nicht-x86-basierenden Prozessoren. So ist
Intels Itanium seit kurzem als Dual-Core-Prozessor ("Montvale") auf dem Markt, die
Quad-Core-Variante, Codename "Tukwila", soll 2008 folgen. Auch Sun entwickelt ihre RISC-CPU
Ultrasparc weiter: Der im Herbst 2005 eingeführte "Niagara" repräsentiert die zweite Generation der
Chip-Multi-Threading-(CMT-)Prozessoren. Die Ultrasparc-T1-Prozessoren laufen zwar nur mit 1,2 GHz,
verarbeiten aber bis zu 32 Threads gleichzeitig und besitzen einen eingebauten Memory-Controller.
Neue Wege beschritt Sun beim Nachfolger Niagara T2 mit 64 Threads. Hier wurden bei der Entwicklung
alle Elemente des Prozessors weggelassen, die nicht unbedingt nötig waren. Das Ergebnis ist eine
sehr effiziente CPU, die acht Encryption-Engines sowie Netzwerkkomponenten und
PCI-Express-Schnittstellen integrierte. Eingebaut sind die T2-CPUs in die Ein-Prozessor-Systeme
T5120 und T5220 sowie das Sun-Blade 6320. Allerdings unterstützt der T2 als Betriebssystem derzeit
nur Solaris, die Zertifizierung für Linux soll später folgen und Windows wird definitiv außen vor
bleiben.

"Zu viel Speicher" gibt es nicht

Schon immer war Arbeitsspeicher im Server ein rares Gut. Zu viel davon konnte der Anwender nie
besitzen, und jetzt, wo neue Server oft für Virtualisierungslösungen gekauft werden, gilt dies umso
mehr. Die vielen Kerne im Server wollen nämlich mit ausreichend RAM versorgt sein, sonst hilft die
ganze Rechenleistung nicht. Der Bedarf hängt natürlich auch von der CPU beziehungsweise dem
Speicher-Controller ab. Aktuelle Opterons binden zwei Kanäle mit jeweils maximal vier
Speichermodulen an. In einem Server mit vier Sockeln finden also bis zu 32 DIMM-Slots Platz. Bei
4-GByte-DIMMs ergeben sich 128 GByte, also 8 GByte pro Kern. AMD setzt dabei auf die Strom
sparenden RDIMMs (Registered Dual In-line Memory Modules), während Intel Fully-Buffered (FB-DIMMs)
ansteuert. Letztere schaffen zwar etwas höhere Durchsätze, verbrauchen aber zusätzliche Leistung,
was die Energieeffizienz schmälert.

Soll der geplante Server als Virtualisierungs-Host arbeiten oder unternehmenswichtige
Anwendungen beherbergen, kommt die Zuverlässigkeit ins Spiel. Hier haben sich schon seit einer
Weile Hot-Spare-Module und Memory Mirroring durchgesetzt. Bei der Hot-Spare-Memory-Technik fungiert
eine festgelegte Speicherbank als Ersatz für eventuell Not leidende "Kollegen". Treten in einem
Modul gehäuft RAM-Fehler auf, deaktiviert der Memory-Controller die Bank mit dem defekten Speicher
und leitet die Zugriffe auf die Ersatzbank um. Bei gleichzeitigen Fehlern in mehreren Bänken hilft
dieser Ansatz nicht weiter. Dafür existiert Memory Mirroring: Es ist mit RAID 1 bei Festplatten
vergleichbar, nur dass hier der Inhalt einer Bank auf eine zweite gespiegelt wird. Fast alle neuen
Chipsätze unterstützen Memory Mirroring – es wird im BIOS freigeschaltet und arbeitet
betriebssystemunabhängig. Offensichtlicher Nachteil dieser Technik: die zusätzlichen Kosten und der
Verlust an nutzbarem RAM für Betriebssystem und Anwendungen.

"Grüne" Server sind gefragt

Generell existieren zwei Ausführungsvarianten für Server: als Stand-alone- oder
Rack-mounted-Version im 19-Zoll-Format. Ein abschließbares Gehäuse oder zumindest blockierbare
Bedienungselemente finden sich eher bei Stand-alone-Servern. Wenn etwas im Rack montiert wird,
gehen die Hersteller davon aus, dass der Serverraum oder das Rechenzentrum ohnehin vor Unbefugten
gesichert ist. Zudem ist das Angebot an eingebauten Schnittstellen, das früher üblich war, heute
deutlich geschrumpft: Tastatur und Maus werden über USB angeschlossen, eine serielle und meist auch
eine parallele Schnittstelle fehlen. Oft sind neben ein paar USB-Buchsen nur Stromversorgung,
Netzwerk-Port und Grafikkarte übrig geblieben. Als praktisch erweisen sich bei 19-Zoll-Geräten ein
VGA- und ein USB-Port an der Front: So kann der Administrator für Diagnosezwecke schnell einen
Monitor und Eingabeelemente anschließen, ohne auf der Rückseite des Schranks zwischen Kabeln wühlen
zu müssen.

Oft sind heute serienmäßig zwei Netzteile eingebaut, die im idealerweise lastabhängig arbeiten.
Energieeffizienz ist im Rechenzentrum ein bedeutendes Thema – zumindest wenn man den Herstellern
glauben darf. Stromversorgungen mit hohem Wirkungsgrad leisten einen erheblichen Beitrag zur "
grünen" IT, ebenso dynamisch regelbare Lüfter und nicht zuletzt entsprechende CPUs und
Arbeitsspeicher. Sowohl AMD als auch Intel führen CPUs mit besonders niedrigem Stromverbrauch im
Programm. Bei Blades ist die Energieeffizienz besonders wichtig, da große Chassis im Vollausbau bis
zu neun Kilowatt Leistung aufnehmen. Lassen sich die Energiefunktionen detailliert regeln, um
beispielsweise zwischen hoher Redundanz oder maximaler Stromeinsparung zu wählen, machen sich die
Auswirkungen deutlich in der Stromrechnung bemerkbar.

Überhaupt erweisen sich die beiden Lebensadern Kühlung und Stromversorgung als wichtige
Kriterien bei der Auswahl eines Bladeservers. Angesichts der heute verbauten Leistungen in einem
Blade-Chassis kann die bestehende Elektroinstallation der limitierende Faktor sein, wenn es um die
Anschaffung von Servern geht. Wer einen Bladeserver in Betracht zieht, stellt zunächst die gleichen
Fragen wie bei einem traditionellen Server. Wie viele Prozessoren werden benötigt, wie viele
Speicherbänke pro CPU sind vorgesehen, wie hoch ist der mögliche I/O-Durchsatz? Hinzu kommen
weitere, Blade-spezifische Faktoren. Zum Beispiel: Wie handhabt der Hersteller die Kompatibilität
der Blades zu den Chassis. Passen neue Blades in alte Chassis? Und ist die Backplane leistungsfähig
genug, dass ein neues Blade seine Leistungsvorteile zumindest annähernd ausspielen kann? Für
Unternehmen, die sich nicht der Homogenität verschrieben haben, kann auch die Auswahl an
unterstützten Prozessoren interessant sein. Einige Serverhersteller bieten Blades mit Xeon-,
Itanium- und Opteron-Prozessoren an – alle für das gleiche Chassis.

I/O-Virtualisierung im Kommen

Rechenleistung stellt nur eine Seite der Medaille dar, die andere ist das Problem, diese
Leistung auch an das Netzwerk oder den Massenspeicher anzubinden. Die Zahl der Netzwerk-,
Fibre-Channel-, iSCSI- und Infiniband-Ports bestimmt maßgeblich, ob ein Bladeserver als reiner "
Number Cruncher" arbeiten muss, oder ob er auch I/O-intensive Aufgaben erledigen kann. Bislang
steckt vor allem die Virtualisierung der I/O-Ressourcen noch in den Kinderschuhen: Nur ganz wenige
Hersteller haben eine Lösung dafür gefunden, wie sich die Ports auf der Rückseite flexibel, am
besten per Software konfigurierbar, den einzelnen Blades zuordnen lassen. Diess scheint eines der
wichtigsten Themen der kommenden Jahre zu sein. Eine Gartner-Studie von Anfang 2007 geht davon aus,
dass I/O-Virtualisierung bis zum Jahr 2010 die Grenzen zwischen Server, Netzwerk-Switch und SAN
einreißen wird. Weniger visionär aber trotzdem wichtig erscheint die Art des Zugriffs auf die
Blade-Ports für Monitor und Eingabegeräte: Ein integrierter KVM-Switch ist zwar sehr praktisch,
aber keineswegs Standard.

Interner Storage stellt für Blades hingegen kein großes Thema dar. Die meisten Hersteller bieten
ihre Einschübe mit einer oder zwei Festplatten an. Datenträger im 2,5-Zoll-Format verbrauchen
weniger Strom, 3,5-Zoll-Platten sind ebenfalls noch weit verbreitet. Der Trend geht allerdings zum
Diskless Blade. In der bereits zitierten Studie prognostizieren die Gartner-Analysten, dass schon
2008 mehr als 50 Prozent der Blades ohne internen Speicher verkauft werden. Bei
Stand-alone-Systemen sind interne Massenspeicher noch weiter verbreitet. Die wichtigsten
Schnittstellen sollten auf dem Board integriert sein: SAS/SCSI- und S-ATA-RAID-Controller gehören
zum guten Ton.

Weniger für die Leistung als für den störungsfreien Betrieb ist die Managementunterstützung
zuständig. Bei Highend-Servern gehört in dieser Hinsicht IPMI (Intelligent Platform Management
Interface) ohne Frage zur Grundausstattung, und die Entwickler beziehen so gut wie jedes kritische
Element mit in die Überwachung ein: zum Beispiel Lüfterdrehzahlen, CPU-Temperatur oder Status der
Spannungsversorgung. In dieser Klasse ebenso wichtig: SNMP-Agents, die Betriebsdaten des Servers an
Management-Frameworks senden. In Rack-mounted-Servern sind mittlerweile Remote-Access-Controller
(RAC) Standard, die den Zugriff über Out-of-Band-Verbindungen erlauben. Ideal ist es, wenn der
Administrator damit seine lokalen Laufwerke an den RAC weiterleiten kann – zum Beispiel zur
Installation von Treibern.

Die Vereinheitlichung der Serversysteme ist inzwischen weit fortgeschritten, dies geben selbst
die Hersteller zu. Deren Rat: In der Regel ist Homogenität im Rechenzentrum wichtiger als ein paar
gesparte Euro. Selbst wenn der Server des bisherigen Herstellers nur zu 95 Prozent passt, sollte
sich der Anwender dennoch für ihn entscheiden. Die Vorteile in Form von einheitlichen
Treiber-Updates, perfekter Einbindung in die vorhandene Managementsoftware oder eines vertrauten
Ansprechpartners bei Problemen, wiegen technische Unzulänglichkeiten und finanzielle Aspekte bis zu
einem gewissen Maß auf.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+