Technologietrends bei Serverrechnern

Rechnerhardware fit für die Zukunft

18. September 2005, 23:07 Uhr | Dr. Herbert Cornelius/pf Dr. Herbert Cornelius ist Technical Marketing Manager bei Intel.

Die Entwicklung im Bereich der Serverhardware geht rasant weiter. 64-Bit-Computing oder Multi-Core-CPUs sind nur einige Techniken, die in Zukunft eine wichtige Rolle spielen. Im Blick sind dabei Hochleistungsanwendungen, aber auch strategische Konzepte wie Serverkonsolidierung und Servervirtualisierung. Der Beitrag beschreibt aus der Perspektive von Chiphersteller Intel wesentliche Trends und beleuchtet ihre Auswirkungen auf verschiedene Anwendungsbereiche.

Der Markt der kostenintensiven proprietären RISC-Systeme ist seit Jahren rückläufig. Als Ersatz
kommen immer mehr standardbasierende Hochleistungsserver zum Einsatz. Den Anwendern steht
mittlerweile eine sehr viel größere Auswahl an Produkten und Herstellern von 64-Bit-Prozessoren,
Speicherchips, Software, Tools und Anwendungen zur Verfügung. Zudem ist die Beschaffung gängiger
Windows- oder Linux-basierender Systeme erheblich kostengünstiger als die von RISC-/Unix-Lösungen.
Möglich wurde diese Entwicklung mit der Fähigkeit standardbasierender Systeme,
64-Bit-Speicheradressierungen vornehmen zu können und damit erheblich mehr Speicherkapazität und
Rechenleistung verfügbar zu machen als bisher.

Vorab gilt es zunächst zu klären, was genau unter 64-Bit-Computing zu verstehen ist: Die
Möglichkeit 64-Bit-Daten zu verarbeiten besteht bereits sehr lange. Hingegen haben sich die
verwendeten Speicheradressen wesentlich langsamer von 8 auf 16, dann auf 32 Bit entwickelt. Die
Größe der benutzten Speicheradressen in einem Prozessor beziehungsweise im Gesamtsystem definiert
die Größe des Hauptspeicheranteils, den ein Task oder Prozess bei seiner Ausführung auf einer CPU
lesen und schreiben kann. Bei 32-Bit-Adressen sind dies maximal 4 GByte, bei 64 Bit 232 (4
Milliarden) mal so viel. 64-Bit-Speicheradressierung war noch bis vor vier Jahren
Highend-Mainframe- und RISC-Systemen vorbehalten. Entsprechende Plattformen und Speicherbausteine
mit hoher Kapazität waren sehr teuer und kaum verfügbar. Erst langsam nutzen mehr und mehr
Anwendungen die Möglichkeiten der Speicheradressierung jenseits der 4-GByte-Grenze. Mittlerweile
sind Prozessoren und Systeme mit adressierbarem 64-Bit-Speicher für den Massenmarkt zugänglich und
von den Kosten her erschwinglich – wie beispielsweise von Intel die Itanium- oder die
Xeon-Prozessoren mit EM64T-Architektur.

Der Einsatz von 64-Bit-Speicheradressierung hängt ab von den konkreten Anforderungen der
Anwendungsbereiche und den verfügbaren Softwarelösungen. Anwendungen, die hiervon profitieren
können, sind zum Beispiel Datenbanken mit schnellen Zugriffs- und Transaktionszeiten, ERP- und
Warenwirtschaftssysteme, Data-Mining- und Data-Warehousing-Anwendungen, Logistikprozesse oder
CRM-Lösungen.

Hinter zukunftsweisendem 64-Bit-Computing steht das Bedürfnis nach schnellerer Datenverarbeitung
bei gleichzeitiger Senkung der IT-Kosten. Durch das erheblich bessere Preis-Leistungs-Verhältnis
der neuen standardbasierenden 64-Bit-Prozessoren gegenüber proprietären RISC/Unix-Systemen stehen
die Vorteile nun auch kleineren und mittleren Unternehmen zur Verfügung. Benötigt werden
64-Bit-fähige Hardware (Prozessoren, Speicher, Ein-/Ausgabe), ein 64-Bit-Betriebssystem und
entsprechende Anwendungen.

Scale-up oder Scale-out

Parallel mit den Anforderungen im Geschäftsumfeld steigen auch die Ansprüche an die
elektronische Datenverarbeitung und IT-Infrastruktur. In der Praxis bedeutet dies häufig, dass für
die Implementierung neuer Anwendungen zusätzliche Serversysteme in die bestehende Architektur
eingebunden werden, die bei genauer Betrachtung aber bei weitem nicht entsprechend ausgelastet
sind. Zugleich steigen jedoch Management- und Netzwerkkosten an.

Im Fall eines Ausbaus der Serverlandschaft ist zu entscheiden, ob man ein Scale-out- oder aber
ein Scale-up-Szenario wählt. Grundsätzlich steht "Scale-up" für die Aufrüstung einiger weniger
zentraler Server durch entsprechende Partitionierung. Die Funktionalitäten eines Serversystems
lassen sich auch mit einem Scale-out-Ansatz erweitern. Hier werden einzelne, meist kleinere,
Servereinheiten zu einem (verteilten) Cluster-System ausgebaut. Grob lassen sich drei Arten solcher
Cluster auf dem Markt beobachten: Cluster für eine extrem hohe Rechenleistung im Bereich
High-Performance Computing, Cluster für einen sehr hohen Datendurchsatz (High Throughput) und
Cluster für eine besonders hohe Verfügbarkeit (High Availability) mit Fail-/Switch-over und
Disaster Recovery.

Zu den am schnellsten wachsenden Segmenten im Servermarkt gehört der Bereich Blade-Server.
Hierbei geht es um möglichst viel Rechenleistung auf kleinstem Raum. Ein solcher Blade-Server
besteht aus mehreren Server-Blades, also Single-Board-Computern (SBC). Diese sind unabhängige
Computersysteme mit Mikroprozessoren, Arbeitsspeicher, Netzwerkanschlüssen oder LAN-Switches auf
einem Motherboard und werden modular zu einem Blade-Server konfiguriert.

Der Vorteil der Blade-Server gegenüber traditionellen Einzelrechnern liegt in der extrem
kompakten Bauweise, einer hohen Leistungsdichte, enormer Skalierbarkeit und Flexibilität sowie in
geringerem Verkabelungsaufwand und der schnellen und einfachen Wartung. Darüber hinaus wird nur ein
einziger Tastatur-/Grafik-/Maus-Controller für einen Blade-Server benötigt.

Bei den heutigen Blade-Servern passen vertikal bis zu 100 Rechner in Reihe mit rund 200
Prozessoren in ein 19-Zoll-Industriestandard-Rack. Derartige Leistungsdichten sind eine
Herausforderung für die Kühlsysteme. Nach wie vor ist Luftkühlung das Maß der Dinge, aber es sind
auch Rechnerschränke mit verschiedenen Wasserkühlsystemen auf dem Markt.

Servervirtualisierung

Serverlösungen basieren häufig auf einem so genannten "Multi-Tier"-Ansatz. Dies bedeutet, dass
verschiedene Aufgaben auf unterschiedliche Bereiche verteilt sind. Im Highend- und Backend-Segment
finden sich meist größere SMP- (Symmetric Multi Processing) und ccNUMA-Systeme (Cache-Coherent
Non-Uniform Memory Access): Diese besitzen einen gemeinsamen Hauptspeicher sowie ein sehr
leistungsstarkes kollektives Ein-/Ausgabe-System und basieren auf hochleistungsfähigen
Prozessorarchitekturen wie etwa Itanium.

Um solche Systeme effizient zu skalieren, empfiehlt sich der Einsatz moderner
Virtualisierungstechnologien. Unter der Bezeichnung Virtualisierung versteht man die
Ressourcenteilung eines physikalischen Serversystems in mehrere virtuelle Maschinen (VM), sodass
parallel mehreren Betriebssystemen – und somit auch Anwendungen – der Anschein vermittelt wird, sie
seien der alleinige Nutzer des Systems. Tatsächlich werden Speicher, Prozessoren, Netzwerk und
Peripherie jedoch geteilt, ohne dass es zu ungünstigen Wechselwirkungen zwischen den einzelnen
Nutzern und Anwendungen kommt. Die Ressourcenteilung regelt und überwacht dabei ein "Virtual
Machine Monitor" (VMM). Solche Lösungen sind beispielsweise von Vmware, Microsoft oder dem Projekt
Xen im Linux-Umfeld auf dem Markt. Damit können nun gleichzeitig mehrere verschiedene Applikationen
in ihrer eigenen Systemumgebung auf dem Server ablaufen, die völlig unabhängig von den oftmals
untereinander inkompatiblen Anforderungen anderer Anwendungen sind.

Aktuelle Virtualisierungslösungen basieren zumeist auf einer softwaremäßigen Emulierung des VMM.
Hierbei handelt es sich um ein Host-Betriebssystem, unter dem alle Partitionen als Gast ablaufen.
Die Kontrolle und Abbildung der virtuellen auf die physikalischen Ressourcen erfolgt über das
Host-System. Zu den negativen Aspekten zählt jedoch, dass Effizienz, Leistungsfähigkeit und
Sicherheit unter Umständen stark beeinträchtigt werden. Virtualisierung lässt sich allerdings auch
auf Hardwareebene unterstützen, so wie es etwa die Virtualisierungstechnologie ("Vanderpool")
Intels vorsieht.

Mit der Virtualisierung wird eine erhebliche Reduktion der Servermanagement- und Wartungskosten
erreicht. Hunderte von Servern lassen sich beispielsweise auf einige wenige Systeme mit zehnfacher
Leistung konzentrieren, Serverauslastungen von zehn Prozent und weniger können auf über 60 Prozent
gesteigert werden. Die Notwendigkeit von physikalischen Servererweiterungen bei steigenden
Anforderungen verringert sich, und die Komplexität von Netzwerken lässt sich überschaubar halten.
Ein weiteres Beispiel für den Vorteil, den Virtualisierung bietet, ist, dass virtuelle
Hardwaretreiber für ein sehr breites Spektrum von Komponenten und Betriebssystemen verfügbar sind.
Setzt ein Unternehmen etwa eine "alte" Anwendung ein, die zum Beispiel noch unter Windows NT 4
läuft, so ist es meistens sehr viel einfacher und effizienter, die Applikation unter einer eigenen
virtuellen Serverpartition zu betreiben, als bei neuerer Hardware nach Gerätetreibern für ein
älteres Betriebssystem zu suchen.

Mit höchster Leistungsfähigkeit, Skalierbarkeit und Flexibilität sind Scale-up-Serversysteme gut
geeignet für komplexe Daten- und rechenintensive Verarbeitungslasten. Zu den Anwendungsbereichen
zählen große Datenbanken, Warenwirtschaftssysteme, Supply Chain Management (SCM), Business
Intelligence (BI) oder Product Lifecycle Management (PLM).

Ein weiterer Baustein für mehr Effizienz im Serverumfeld ist die Kontrolle des
Energieverbrauchs. Dies beginnt auf Prozessorebene. In diese Richtung zielt beispielsweise Intels
Demand Based Switching (DBS): Wenn wenig Rechenarbeit erledigt werden muss, takten die CPUs auf bis
zu 2,8 GHz herunter, während gleichzeitig auch die Kernspannung gesenkt wird. Somit lässt sich die
Verlustleistung reduzieren und Energie einsparen, ohne dass es zu Leistungseinbußen kommt. Mit dem
neuen Itanium 2 (Codename: Montecito) kommt Ende des Jahres die "Foxtron"-Technologie auf den
Markt, die es dem Prozessor gestattet, bei akutem Bedarf last- und strombezogen mehr Leistung
(Taktfrequenz) anbieten zu können.

Speichertechnologien

Im Eingabe/Ausgabe-(I/O-)Bereich hat sich PCI-Express als Standard für lokale
Server-I/O-Anschlusstechnologie bereits etabliert. Mit Durchsatzraten von 500 MByte/s bis 8 GByte/s
steht damit eine ausreichend starke I/O-Technik zur Verfügung, um die Kapazitäten von 10 Gigabit
Ethernet und Infiniband voll ausschöpfen zu können.

Für die Speicher-Subsysteme befinden sich derzeit moderne DDR2-Technologien im Einsatz. Die
künftige Technologie für serverbasierende Speichersysteme sind die so genannten Fully Buffered
DIMMs (FB-DIMMs), die mit den Geschwindigkeitszuwächsen bei Prozessor und I/O Schritt halten (siehe
separater Beitrag). Mit dieser neuen Speichertechnik lässt sich die maximale Leistung aus den
kommenden Multi-Core-Prozessoren herausholen.

Bei modernen Enterprise-Serversystemen müssen die Datenvolumina auch schnell über die
Ein-/Ausgabesysteme zur rechten Zeit an ihren Bestimmungsort transportiert werden. Für eine
Unterstützung der kritischen I/O-Komponenten sorgen Ansätze wie die I/O Acceleration Technology
(I/OAT) von Intel. Diese verbessert beispielsweise den weit verbreiteten TCP/IP-Stack hinsichtlich
niedrigerer Latenzzeiten und höherer Bandbreiten sowie höherer Zuverlässigkeit und Effizienz. Dabei
bleibt I/OAT komplett transparent für alle anderen Anwendungen, sodass keine weiteren Anpassungen
notwendig sind. Die Technik adressiert alle Overhead-Bereiche im System: So wird etwa die
Verarbeitung des Netzwerkprotokoll-Stacks dynamisch über alle physikalischen und logischen
Prozessoren des Serversystems partitioniert. Dies gestattet eine schnelle Ausführung von
Anwendungen auf den Prozessoren. Zudem unterstützt I/OAT asynchrone "Low-cost-Copy"-Operationen
(Direct Memory Access – DMA). Dadurch lassen sich Daten aus den NICs (Network Interface
Controllers) mit einer wesentlich geringeren Prozessorbelastung zu den Anwendungsdatenpuffern
transferieren, was letztlich in einer höheren Rechenleistung und schnellerem Datenjobdurchsatz
mündet.

Multi-Core-CPUs

Die Zukunft des Computings liegt im Einsatz der Multi-Core-Technologie. Multi Core bezeichnet
die Implementierung mehrerer Prozessorkerne auf einem einzigen Chip. Dadurch wird eine höhere
Verarbeitungsleistung und effizientere Ausnutzung der verfügbaren Transistoren erreicht (nach dem
Moore?schen Gesetz ist zu erwarten, dass sich die Anzahl der Transistoren auf einem Chip bis
wenigstens 2010 weiterhin alle 24 Monate verdoppeln lässt).

Traditionell bewältigen auf der x86-Architektur basierende Prozessoren – unabhängig von ihrer
Taktung – in der Regel nur eine Aufgabe gleichzeitig. Zwar können verschiedene Anwendungen parallel
laufen, doch führt die CPU Aufgaben (Threads) nur nacheinander oder im Multiplexverfahren aus. Je
nach Komplexität der Threads bekommt der Nutzer hiervon durch entsprechend längere
Verarbeitungszeiten etwas mit oder nicht. Mit dem 2002 eingeführten Hyper-Threading gelang es
Intel, zwei Threads parallel auszuführen, indem ein Prozessor sich innerhalb des Betriebssystems
wie zwei virtuelle Prozessoren verhält. Dies war ein erster Schritt in Richtung
Multi-Core-Processing.

Künftige Anwendungen setzen eine immer bessere Leistungsfähigkeit des Systems voraus, die sich
nicht allein durch Gigahertz-Zahlen erreichen lässt. Die konsequente Weiterentwicklung sind hier
Multi-Core-CPUs. Ein solcher Mehrkernprozessor vereint Multi-Processing auf einem Prozessor und
ermöglicht es so, verschiedene Threads auf jeweils einem Kern zu bearbeiten. Ein erster Schritt in
diese Richtung sind die Dual-Core-CPUs mit zwei Prozessorkernen, wie sie zum Beispiel der neue
Intel-Itanium-Chip mit dem Codenamen Montecito bietet, der Ende 2005 auf den Markt kommt. Mit zwei
Prozessorkernen und Multi-Threading wird es dann in der Praxis möglich sein, beispielsweise auf
einer Itanium-basierenden Zwei-Wege-Plattform (zwei CPUs) acht Threads gleichzeitig zu bearbeiten –
auf einer 16-Wege-Plattform entsprechend bis zu 64 Threads. Insgesamt soll die
Multi-Core-Technologie im Serversegment signifikante Preis- und Preis/Performance-Vorteile im
Vergleich zu traditionellen Systemen bringen.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+