Zum Inhalt springen
Buyers Guide: Serversysteme

Ausgewogene Leistung

IT-Hersteller wollen Kunden oft Quantität statt Qualität verkaufen. Gerade beim Serverkauf dürfen sich Administratoren nicht nur von rohen Gigahertz und Gigabyte verführen lassen.

Autor:Andreas Stolzenberger • 26.9.2007 • ca. 7:40 Min

Den Kommentar der Fleischfachverkäufein kennt jeder auswendig: »Darf’s a Raderl mehr sein?« 100 Gramm Wurst für überteuerte 2 Euro hatte man bestellt, 120 Gramm für 2,40 Euro landen in der Tüte. Diese wird selbstverständlich fachmännisch so zugeheftet, dass die Klammer nicht nur die Tüte, sondern auch alle trennenden Papier- sowie Cellophanschichten und mindestens eine Scheibe Wurst durchstößt. Wenn man aber an der Wursttheke mehr bezahlt, als man eigentlich wollte, dann bekommt man wenigstens auch mehr Wurst, als man eigentlich bestellt hatte – beim Serverkauf sieht das anders aus. Hier mag einem der Hersteller »Darf’s a Gigahertzerl und a Gigabyterl mehr sein« für den einen oder anderen Hunderter Aufpreis anbieten. Doch hierbei bekommt man trotz viel versprechender Zahlen nicht zwingend mehr fürs Geld. So seltsam es klingen mag, beim Serverkauf darf es hier und da ruhig einmal »a bisserl weniger« sein, wenn dafür die Komponenten ausgewogen arbeiten.

Grundregeln

Eine wesentliche Grundregel für alle Serverkomponenten lautet: Stabilität vor Geschwindigkeit. Lieber laufen die Prozesse ein wenig langsamer, aber dafür kontinuierlich und ohne Unterbrechung über einen langen Zeitraum. Das bedeutet ebenfalls, dass man im Zweifelsfalle sich eher für ältere, aber in der Praxis bewährte Bauteile entscheidet als für brandneue Komponenten, zu denen noch keine Erfahrungswerte vorliegen. Auch sollten die Komponenten einen Schutz vor Ausfällen mitbringen. Dieser Schutz fängt bei einem Motherboard an, das die Überwachung der einzelnen Komponenten erlaubt, geht über ECC-fehlerkorrigierten Speicher bis hin zu gespiegelten Platten und redundanten Netzteilen. Diese Kriterien gelten nicht nur für Enterprise-Installationen, sondern auch für kleine Server. Gerade mittelständische Unternehmen ohne eigene EDV-Abteilung trifft ein Serverausfall besonders hart, denn klein Fachmann vor Ort kann kleinere Defekte zügig beheben oder aus dem Schrank mal eben Reservebauteile hervorzaubern. Hier muss ein Server rechtzeitig vor einem Totalausfall warnen, um dem Servicepartner Zeit für die Reperatur zu geben. Ein ausrangierter Desktop-PC darf daher niemals den Dienst als Server antreten, es sei denn, er erledigt dabei keine lebensnotwenige Funktion oder fungiert als Backup-System für Notfälle.

Passende Komponenten

Zu den stets überbewerteten Komponenten eines Servers zählt die CPU. Viele Hersteller statten bereits einfache File-Server mit Doppelprozessoren und hohen Taktungen aus. Wer in der Praxis jedoch die Belastung der Server-CPUs überwacht, wird feststellen, dass schnelle Prozessoren häufig mehr Wärme generieren als tatsächliche Arbeit verrichten. Für den Großteil der regulären Büro-Server-Aufgaben wie File- und Print- oder Post-Office in Umgebungen mit weniger als 100 Anwendern reicht in der Regel ein Uni-Prozessor-System mit einer 1 GHz CPU völlig aus. Dafür sparen viele Hersteller lieber am Hauptspeicher, doch gerade eine geräumige RAM-Ausstattung schafft Leistungsreserven. Geht der CPU die Puste aus, laufen Prozesse ein bisschen langsamer, doch das stört nur wenig. Neigt sich der freie Speicher dem Ende zu, beginnt das Serversystem, Speicher auf Platte auszulagern. Dieser Vorgang beeinträchtig die Leistung des Servers viel gravierender als eine überlastete CPU und führt zu Blockaden von Client-PCs sowie LAN-Verbindungsabbrüchen.

Linux-Server sollten daher mit mindestens 256, besser 512 MByte Speicher, Windows-Maschinen mit 512, besser 1 GByte Speicher arbeiten. Dabei gilt es, die Organisation des Speichers zu beachten. Chipsätze von Serverboards offerieren duale Speichercontroller und damit die doppelte Speicherbandbreite. Ein schneller Speicherzugriff macht sich im Serverumfeld oft wesentlich stärker bemerkbar als eine höher getaktete CPU. Sollen 512 MByte Speicher zum Einsatz kommen, sollte der Administrator eine Konfiguration mit zwei 256 MByte Speicherriegeln gegenüber einem einzelnen 512 MByte-DIMM bevorzugen. Die Preise für solche Speicher liegen derzeit bei etwa 50 Euro (Preise laut www.alternate.de) für einen regulären 256 MByte DDR-DIMM. Registered-DDR-DIMMs für Server

mit ECC-Fehlerkontrolle kosten bei gleicher Kapazität etwa 70 Euro. Diese Mehrausgabe rentiert sich in jedem Fall. Ein sterbender Speicher-Baustein kompromittiert die Arbeit des Servers. Im besten Fall friert das System ein, oder der Rechner stürzt ab. Oftmals laufen Serversysteme mit defektem Speicher eine Zeit lang einfach weiter und sichern korrumpierte Daten – ein wesentlich schlimmeres Szenario als der simple Ausfall. Fehlerkorrigierende Speicher beheben nicht nur einzelne Bitfehler der Memory-Riegel. Sie informieren zudem das Management-System des Servers über Probleme des Hauptspeichers, so dass der Administrator rechtzeitig den fehlerhaften Speicherbaustein tauschen kann, bevor es zu fatalen Datenfehlern kommt.

Bei der Wahl der Festplatten stehen Administratoren vor schwierigen Entscheidungen. IDE-Laufwerke mit hoher Kapazität kosten wesentlich weniger Geld als die performanteren und zuverlässigeren SCSI-Platten. Zudem fällt kein zusätzlicher SCSI-Controller an. IDE oder ATA-Platten generieren bei Speicherzugriffen eine höhere CPU-Last als SCSI-Laufwerke, und daran ändert auch die aktuelle erste Version des Serial-ATA erst einmal nichts. Wenn der Systemverwalter also an den Platten sparen möchte und auf parallele oder serielle ATA-Laufwerke zurückgreift, sollte er zumindest ein paar wenige Punkte beachten:

Verschiedene Hersteller zertifizieren einige ihrer Plattenmodelle für den Serverbetrieb. Nur diese Laufwerke halten den 24x7-Betrieb aus, und nur auf diese Geräte gewährt der Hersteller Garantieanspruch, wenn sie im Dauereinsatz kaputtgehen. Größere Platten-Caches der Laufwerke mit 8 MByte entlasten den Controller sowie das System und liefern damit spürbare bessere Performance als die üblichen Platten mit 2 MByte Cache. Laufwerke mit 7200 Touren liefern einen höheren Datendurchsatz, generieren dabei aber auch mehr Abwärme. Zur Ausfallsicherheit empfiehlt es sich, ein Motherboard mit integriertem RAID-1-Controller und zwei baugleiche Laufwerke gespiegelt einzusetzen.

Hierzu ein Praxistipp: In den Real-World Labs von Network Computing arbeiten die meisten fest installierten Server mit zwei schnellen, aber kleinen gespiegelten Platten, auf welchen nur das System und die Applikationen liegen. Das beginnt bei alten Servern mit einem einzelnen 500-MHz-Prozesor und dualen 2-GByte-SCSI-2-Laufwerken und geht bis hin zu modernen Servern mit zwei 2,8-GHz-Xeon-CPUs und gespiegelten 18-GByte-Ultra-320-SCSI-Systemvolumina. Für die erweiterten Datenspeicher kommen dann, je nach Einsatzgebiet, große Speichervolumina mit RAID-5 zum Einsatz. Hier setzt auch Network Computing verschiedene Systeme mit günstigen IDE-Platten ein. Die Trennung von performanten, aber teuren Systemlaufwerken und günstigen, größeren, aber langsameren Datenvolumina entfernt Engpässe im System und bietet hohe Leistung.

Keine Arbeit ohne Strom

Eine wesentliche, aber oft zu schwach bewertete Komponente eines Servers stellt die Stromversorgung dar. Weit über die Hälfte aller Systemausfälle oder Schäden an Systemkomponenten verursachen Netzteile und ungefilterte Netzstörungen. Fällt die Spannungsversorgung aus, stürzt dabei nicht nur der Server ab. Oftmals nehmen auch Komponenten wie Festplatten, die CPU und Speicherbausteine durch einen Netzteilfehler Schaden. Der Administrator sollte darauf achten, dass seine Server mit Netzteilen von Markenherstellern arbeiten und eine redundante Stromversorgung mit zwei oder mehr Netzteilen unterstützen.

Das Thema Sicherung und Sicherheit fällt beim Serverkauf allzu gerne in die Sparte »Option«. Die Datensicherung gehört jedoch zu jedem Server wie der Hauptdatenbestand und die eigentliche Server-Applikation. Vor dem Serverkauf muss der Administrator festlegen, wie er die neue Maschine abzusichern gedenkt. Soll sie bestehende externe Band- oder Plattensysteme als Sicherungsziel benutzen, muss ein SCSI-Controller in den Server. Erfolgt die Datensicherung über eine Netzwerk-Backup-Lösung, sollte man ein zweites LAN-Interface in Erwägung ziehen. Darüber lässt sich der administrative Verkehr von den produktiven Daten trennen. Stehen keine solche Sicherungslösungen zur Verfügung, sollte der Administrator beim Serverkauf gleich den Streamer und passende Bänder mitbestellen.

Sehr wichtig ist die Kühlung. Hier sollte der Verwalter auf redundante und im Betrieb wechselbare Lüfter achten. Bei Rackservern findet man eigentlich immer schnell wechselbare Ventilatoren. Anders sieht das häufig bei Tower-Servern aus. Systemverantwortliche müssen hier vor dem Kauf eines Servers prüfen, ob auch das Tower-Model während der Laufzeit Zugang zu den Ventilatoren bietet und ob diese über ausreichend Redundanz verfügen.

Praxistipps

Aus der Erfahrung mit den eigenen Testnetzwerken sowie mit einigen Installationen von Lesern hat Network Computing ein paar Konfigurationsvorschläge für Server in bestimmten Einsatzgebieten zusammengestellt.

Edge-Server: Als Edge-Server bezeichnet man gerne simple Maschinen, die einzelne einfache Aufgaben (im technischen Sinn) betreiben. Als auf Linux basierende Firewall für eine Installation mit rund 100 Anwendern an einer 2- bis 10-MBit/s-Leitung, genügt beispielsweise schon ein einfacher Server mit einem 500- bis 1000-MHz-Pentium-III-Prozessor, 128 MByte RAM und einer einzelnen 2-GByte-Platte. Diese Konfiguration genügt für eine Stateful-Inspection-Firewall mit einem produktiven und einem DMZ-Netzwerk und ein oder zwei IPSec-VPN-Verbindungen. Sollen weitere Dienste wie Virenscanner, zusätzliche VPN-Kanäle oder ein erweitertes Content-Filtering zum Einsatz kommen, fordert das Gerät eine schnellere CPU und mehr Arbeitsspeicher – aber noch keine größere Platte. Dient die Firewall auch als Proxy-Server, genügt die CPU, aber im Gegenzug müssen eine größere Platte und mehr Speicher her. Ein Edge-Server fordert nur eingeschränkte Ausfallsicherheit. Zwar bedarf es redundanter Stromversorgungen und Lüfter, aber auf gespiegelte Platten und Bandlaufwerke kann man verzichten – sofern man über eigenes IT-Personal vor Ort verfügt. Lediglich die Konfiguration der Firewall, die sich nur selten ändert, gehört auf eine Arbeisstation, einen USB-Stick oder Floppy gesichert. Fällt die Platte einmal aus, braucht es knapp zehn Minuten um sie auszutauschen, das Firewall-System von CD wieder einzuspielen und die Konfiguration zurückzuholen.

Intranet-Server: Für Server mit einfachen Diensten wie POP3/IMAP-Post-Office, File- und Print-Dienste oder simplen Groupware-Anwendungen gelten höhere Anforderungen. Neben einem größeren Speicher ab 256 oder 512 MByte und einer schnelleren CPU ab 1 GHz müssen hier bereits ausfallsichere Massenspeicher wie gespiegelte Platten zum Einsatz kommen und eine Backup-Strategie vorliegen. Enthält der Server eine große Zahl an Nutzdaten wie bei einem Fileserver, empfiehlt es sich zudem, getrennte System- und Datenplatten einzusetzen. Das spart Kosten, ohne dabei die Ausfallsicherheit einzuschränken.

Workgroup-Server: Diese Serverklasse erledigt ähnliche Aufgaben wie ein Intranet-Server, nur dass ein Workgroup-Server in der Regel für eine geringere Benutzerzahl viele verschiedene Dienste anbietet. Dafür braucht er in erster Linie einen geräumigen Speicher. Ein System mit vielen Diensten profitiert zudem von einem Doppelprozessorsystem. Dabei erweist sich ein Rechner mit zwei schwächeren Prozessoren oft als effizienter, als ein System mit einer einzigen schnellen CPU. Für diesen Ausfgabenbereich empfehlen sich auch CPUs mit Intels Hyperthreading-Technologie.

Application-Server: Bei Anwendungsservern gibt die Anwendung klar vor, welche Anforderung sie an die Hardware setzt. Konfigurationsvorschläge kann man in diesem Feld schlecht geben, nur ein paar Leitlinien: Datenbankserver brauchen sehr viel Arbeitsspeicher und viele schnelle Festplatten. Konfigurationen mit mehreren kleineren Festplatten arbeiten dabei effizienter, als wenige große Laufwerke. Die CPU spielt eine vergleichsweise geringe Rolle. Nicht der eigentliche CPU-Takt zählt. Viel stärker fällt ins Gewicht, wie schnell der Memory-Controller und der Speicherbus arbeiten. Groupware-Server wie Notes oder Exchange fordern viel Hauptspeicher, stellen aber geringere Anforderungen an den Massenspeicher. Groupware-Applikationen profitieren in der Regel stark von Multiprozessorarchitekturen.

Bevor ein Administrator zum Serverkauf schreitet, muss er sich sorgfältig Gedanken über das Einsatzgebiet der Maschine machen und dabei auch berücksichtigen, welche künftigen Ausbauten anfallen könnten. Bei der Komponentenauswahl kommt es auf Ausgewogenheit an. Schneller, großer und sicherer Speicher fällt dabei immer viel stärker ins Gewicht als reine CPU-Power. [ast]