64-Bit-Computing

Die richtige Wahl der Serverplattform

9. Mai 2006, 23:35 Uhr | Klaus Rumsauer/pf Klaus Rumsauer ist Director Enterprise Server and Storage Business Unit bei Hewlett-Packard Deutschland.

Dem 64-Bit-Computing gehört die Zukunft - darin sind sich alle Experten einig. Doch "64 Bit" ist nicht gleich "64 Bit". Es existieren verschiedene industriestandardbasierende Serverplattformen mit durchaus unterschiedlichen Techniken: So ist zwischen Prozessoren mit 64-Bit-Erweiterungen einerseits und "echten" 64-Bit-CPUs zu diffenzieren. Der auf den ersten Blick geringe Unterschied hat enorme Auswirkungen auf die Leistungsdaten der IT-Infrastruktur.

Auf dem Markt der Serversysteme ist die Auswahl der angebotenen Prozessoren breit gestreut: Sie
reicht von x86-basierenden Chips von Intel (Xeon) und AMD (Opteron) mit oder ohne
64-Bit-Erweiterungen bis hin zu Intel-Itanium-2-CPUs. Darüber hinaus sind auch Server mit so
genannten PA-RISC- oder Alpha-Prozessoren sowie proprietäre Lösungen diverser Anbieter verfügbar.
Unternehmen, die auf eine Industriestandard-basierende 64-Bit-Architektur setzen möchten, haben
derzeit die Wahl zwischen zwei Anbietern: AMD und Intel.

Mit den AMD-Opteron- und den Intel-Xeon-Prozessoren offerieren beide Hersteller ähnliche CPUs,
die auf der bekannten x86-Architektur (Stichwort: 386, 486, Intel Pentium) aufbauen. Diese verfügen
im Kern über eine Bandbreite von 32 Bit. Durch Erweiterungen sind die neueren Modelle jedoch in der
Lage, auch 64-Bit-Anwendungen auszuführen. Sie sind somit zum Beispiel für den Betrieb der
64-Bit-Versionen von Windows oder Linux geeignet. Darüber hinaus verfügt Intel auch über einen
reinen 64-Bit-Prozessor, den Itanium, der mittlerweile in der zweiten Generation auf dem Markt ist.
Durch den grundlegend anderen Aufbau der Architektur existieren hier – im Gegensatz zu AMD Opteron
und Intel Xeon – keinerlei Beschränkungen, die noch aus der 32-Bit-Ära übernommen wurden. So lassen
sich im 64-Bit-Computing beispielsweise auch große Bereiche des physikalischen Speichers direkt
adressieren – bei 32-Bit-Systemen ist dieser Zugriff auf rund 4 GByte begrenzt. Kann ein Prozessor
auf mehr Arbeitsspeicher direkt zugreifen, muss er seltener auf Daten warten, die zum Beispiel von
vergleichsweise langsamen Festplatten kommen – die Verarbeitungsgeschwindigkeit steigt dadurch
zusätzlich.

Die technischen Grundlagen

Der Itanium verfügt im Kern nicht nur über die doppelte Bandbreite, sondern im Vergleich zu
seinen Konkurrenten auch über eine gänzlich unterschiedliche Methodik bei der Verarbeitung von
Rechenaufträgen. x86-Prozessoren mit ihrer CISC-Architektur (Complex Instruction Set Computer)
verarbeiten Befehle sequenziell. Hier müssen alle anstehenden Aufträge "in der Schlange stehen" und
warten, bis die vorherigen Befehle verarbeitet sind. Darunter leidet die Leistungsfähigkeit –
speziell bei komplexen Berechnungen. Dagegen setzt Intel beim Itanium auf die parallele
Verarbeitungsmethodik EPIC (Explicitly Parallel Instruction Computing): Der Prozessor kann mehrere
Berechnungen zeitgleich ausführen. Davon profitieren insbesondere Anwendungen, die komplexe und
umfangreiche Berechnungen erfordern. Die Voraussetzung dafür ist jedoch, dass die Applikationen für
Itanium geeignet (kompiliert) sind. Dies sind mittlerweile rund 7300 Programme. Darüber hinaus
verfügt der Itanium in der neuesten Version über 24 MByte internen Cache – deutlich mehr als andere
Prozessoren.

Der Trend hin zu Prozessoren mit mehreren Kernen (Multi-Core) sorgt inzwischen dafür, dass auch
x86-CPUs Aufträge parallel bearbeiten können – allerdings jeweils nur einen pro Kern. Bei den
mittlerweile verfügbaren Dual-Core-Systemen ist somit die Anzahl der gleichzeitig durchgeführten
Aufträge auf zwei begrenzt. Die in Kürze verfügbare nächste Generation der Itanium-Prozessoren ("
Montecito") geht noch einen Schritt weiter: Die CPU hat nicht nur einen Multi-Core-Aufbau, sondern
ist darüber hinaus auch Multi-Thread-fähig. Unter Multi-Threading versteht man das parallele
Verarbeiten mehrerer Abläufe (Threads) in einem einzigen Programm. So ist beispielsweise ein Server
mit Dual- Core-CPUs und Dual-Thread-Funktion in der Lage, vier Programmabläufe je Prozessorsockel
gleichzeitig zu verarbeiten.

Die Unterschiede zwischen AMD Opteron und Intel Xeon einerseits sowie Intel Itanium andererseits
beschränken sich nicht nur auf die sequenzielle oder parallele Berechnung. Auch bei den Faktoren
Verfügbarkeit und Rechengenauigkeit existieren deutliche Differenzierungen. Im Gegensatz zu den
kostengünstigeren x86-Prozessoren ist die Itanium-Plattform konsequent für höchstmögliche
Ausfallsicherheit konzipiert. Die technische Grundlage dafür bilden redundante Baugruppen, die
bereits auf Prozessorebene dafür sorgen, dass der Ausfall einer Komponente den Geschäftsbetrieb
nicht beeinträchtigt. In Kombination mit dem Clustering zweier oder mehrerer solcher Server lässt
sich so die Hochverfügbarkeit der IT gewährleisten. Daher bildet diese Plattform auch die Grundlage
für so genannte Nonstop-Systeme, die für den Betrieb geschäfts- und sicherheitskritischer
Anwendungen eingesetzt werden. Dagegen erreicht der Anwender bei Xeon- und Opteron-basierenden
Infrastrukturen eine möglichst hohe Verfügbarkeit der Systeme in erster Linie lediglich durch das
Clustern mehrerer Server. Die Ausfallsicherheit wird hier faktisch durch die Duplizierung ganzer
Server erreicht.

Ein weiterer Aspekt ist die Rechengenauigkeit: Aufgrund seiner Architektur weist der Itanium
hier ein sehr hohes Maß auf. Um ähnlich exakte Ergebnisse mit x86-basierenden CPUs in der gleichen
Zeit zu erreichen, müssten mehrere solcher Systeme parallel geschaltet werden.

Die Skalierbarkeit stellt ein weiteres Unterscheidungskriterium dar: Der Ausbau der
Serverinfrastrukturen bei x86-basierenden Lösungen erfolgt per "Scale out". Hierbei werden einfach
zusätzliche Server parallel geschaltet, um die benötigte Rechenleistung bereitzustellen. Dagegen
lassen sich Itanium-basierende Systeme bei Bedarf über zusätzliche Prozessoren aufrüsten. So sind
beispielsweise Server der Baureihe HP Integrity mit bis zu 128 Prozessorsockeln ausgestattet. Die
Skalierung kann hier einfach innerhalb bestehender Servergehäuse erfolgen ("Scale up").

Daher stellt sich für viele Unternehmen die Frage, was letztendlich für sie effizienter ist: ein
oder mehrere "große" Server mit echten 64-Bit-Strukturen oder doch eine mehrfache Anzahl "kleiner"
Server mit Intel-Xeon- oder AMD-Opteron-Prozessoren.

Servervirtualisierung

Um einen effizienten Serverbetrieb zu ermöglichen, ist eine flexible Ressourcenzuteilung der
Rechenleistung meist ein probates Mittel. Unternehmen führen dabei ihre Ressourcen in einem
virtuellen Pool zusammen und greifen je nach Bedarf auf diese Kapazitäten zu. Die
Ressourcenverteilung erfolgt dabei automatisch und geht bei der Itanium-Architektur bis auf die
Prozessorebene hinunter. So ermöglicht zum Beispiel das in "HP Virtual Server Environment"
enthaltene Tool "HP Integrity Virtual Machines" den gleichzeitigen Einsatz mehrerer Betriebssysteme
auf einem einzigen Prozessor (Multi-OS-Betrieb). Unterstützt werden dabei HP-UX 11i, Windows, Open
VMS und Linux. Dabei läuft jedes Betriebssystem so, als stünde ihm ein eigener Server zur
Verfügung.

Allerdings ist die Virtualisierung nicht auf die reinen 64-Bit-Systeme beschränkt: Auch
Infrastrukturen mit x86-basierenden Servern lassen sich virtualisieren. Dabei setzt die
Ressourcenzuteilung jedoch nicht bereits beim einzelnen Prozessor an, sondern verteilt die
Rechenleistung eines kompletten Servers. Hier kommen meist Lösungen spezialisierter Anbieter zum
Einsatz, wie zum Beispiel Vmware.

Welcher Server für welche Applikationen?

Bei der Frage, welche Serverplattform für welche Applikationen die am besten geeignete ist, gibt
es einige Richtwerte: So eignen sich Itanium-basierende Infrastrukturen speziell für den Betrieb
großer Datenbanken und Data-Warehousing-Anwendungen. Für rechenintensive 64-Bit-Applikationen mit
einem hohen Leistungsbedarf bei Fließkommaoperationen sind diese CPUs aufgrund der beschriebenen
Vorteile wie etwa der durchgängigen 64-Bit-Architektur und dem großen direkt adressierbaren
Speicher in der Regel die erste Wahl. Da sie sich zudem leicht skalieren lassen, sollten auch
Unternehmen diese Plattform ins Auge fassen, die künftig mit stark steigenden Anforderungen bei den
eben genannten Einsatzbereichen an ihre IT rechnen.

Dagegen spielen Intel-Xeon- und AMD-Opteron-Prozessoren ihre Stärken besonders beim Betrieb
kleinerer Datenbanken, bei statischen und dynamischen Webservices sowie beim File- und
Print-Serving aus. Sie verfügen beide über eine hohe Performance bei 32-Bit-Anwendungen und eignen
sich somit gut für die Konsolidierung vorhandener Infrastrukturen.

Es existieren jedoch auch Fälle, bei denen keine der Plattformen auf den ersten Blick die
effizientere ist. So können zum Beispiel bei mittelgroßen Datenbanken sowohl Itanium- als auch
x86-basierende Server von Vorteil sein. Hier ist eine genaue Analyse der individuellen Situation
notwendig, um sich Klarheit darüber zu verschaffen, welcher Weg der bessere ist.

Aufgrund der typischen Anwendungslandschaft in den Unternehmen ist der Einsatz von
x86-basierenden Servern meist ohnehin erforderlich – zum Beispiel für das File- und Print-Serving.
Daher ist die Frage "x86 oder Itanium?" auf den Betrieb einzelner Applikationen beschränkt. Wer
dabei von vornherein davon ausgeht, dass eine einheitliche Infrastruktur aus x86-basierenden
Servern deutlich einfacher zu verwalten und somit prinzipiell vorzuziehen sei, irrt jedoch. Da
beide Plattformen auf Industriestandards basieren, ermöglicht eine entsprechende Managementsoftware
die einfache und effiziente Administration auch von kombinierten Serverlandschaften. Auch der
kombinierte Einsatz beider Serverarchitekturen ist mittlerweile Platz sparend möglich: So bieten
erste Hersteller bereits Blade-Server mit Intel-Itanium-2-Prozessoren. In geeigneten Gehäusen
(Blade Enclosures) lassen sich beide Servertypen nebeneinander betreiben. Da die Blades beider
Bauarten auf die gleiche zentrale Stromverteilung und Kühlsysteme zugreifen, können Unternehmen,
die bislang lediglich x86-Blades verwenden, kostengünstig und Platz sparend auch Itanium-basierende
Blades integrieren. Zu den weiteren Vorteilen gegenüber Einzelservern zählt der geringere Aufwand
für die Netzwerkverkabelung. Zudem sind Switches und Kabel für Tastaturen, Mäuse und Monitore
überflüssig, da sich die Blade-Server über eine Browser-basierende grafische Benutzeroberfläche
verwalten lassen.

Worauf Unternehmen achten sollten

Bevor Unternehmen sich für ein Serverkonzept entscheiden, sollten sie zuvor ein
Anforderungsprofil erstellen. Der entscheidende Punkt dabei ist: Welche Applikationen sind im
Einsatz, beziehungsweise werden künftig benötigt? Auch Fragen, wie verfügbar und ausbaufähig die
Server sein müssen, sind im Vorfeld zu klären. Dabei empfiehlt es sich generell, auf Server zu
setzen, die auf Industriestandards basieren. Diese lassen sich auch einfach in bestehende
Infrastrukturen integrieren und sind zudem leichter zu verwalten und zu skalieren. Dadurch ist der
Investitionsschutz gewährleistet. Um Lösungen zu finden, die perfekt auf die individuellen
Bedürfnisse zugeschnitten sind, ist jedoch eine kompetente Beratung unerlässlich. Von Vorteil ist
dabei, wenn ein Anbieter nicht nur eine Prozessorplattform im Portfolio hat, sondern über eine
breite Serverpalette verfügt – von x86-Lösungen bis hin zu Systemen für das durchgehende
64-Bit-Computing. Auch die Wahl zwischen den Formfaktoren Rack und Blade sollte gewährleistet sein.
Da ein Großteil der Gesamtkosten nicht bei der Anschaffung, sondern im Betrieb der
Serverinfrastruktur anfällt, ist effiziente und umfassende Software für das Systemmanagement ein
entscheidendes Kriterium. Denn die Wahl der besten Serverplattform hilft nichts, wenn sich diese
später nicht effizient verwalten lässt.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+