Schöne neue Server-Welt
Generationswechsel – Eine Reihe systemintegrierter Technologien der nächsten Server-Generation soll die Systeme der neuen Generation leistungsfähiger machen und die Infrastrukturen der Unternehmen effizienter, sicherer und einfacher gestalten.

Mit den stetig steigenden Anforderungen im globalen Geschäftsumfeld durch immer neue wirtschaftliche Herausforderungen und den sich ständig ändernden Marktbedingungen steigen auch die Anforderungen an die eingesetzte elektronische Datenverarbeitung kontinuierlich. Enterprise-Server werden immer leistungsfähiger und erhalten durch die fortlaufende Einführung neuer Technologien mehr und bessere Funktionalitäten ohne auf Qualität, Zuverlässigkeit, Offenheit und Investitionsschutz verzichten zu müssen. Um schnell und rechtzeitig auf veränderte Unternehmens-Anforderungen reagieren zu können,weisen solche modernen Server-Systeme eine hohe Flexibilität und effiziente Skalierbarkeit auf.
Server-Prozessoren
Als eindeutiger Industrie-Prozessor-Trend im Enterprise-Computing kristallisiert sich die Chip-Multi-Core-Technologie heraus, die nach und nach über Hyper-Threading und Dual-Core in den Markt eingeführt werden wird. Multi- Core bezeichnet die Implementierung mehrerer vollständiger Prozessor-Kerne auf einem Chip für eine höhere Verarbeitungsleistung, höheren Durchsatz und eine effizientere Ausnutzung der verfügbaren Transistoren.
Nach heutigem Kenntnisstand der Materialund Herstellungs-Technologien ist zu erwarten, dass man die Anzahl der integrierten Transistoren auf einem einzigen Chip nach Moores Law weiterhin bis mindestens 2015 etwa alle 24 Monate verdoppeln kann. Weitere zusätzliche Leistungssteigerungen erhält man durch Verbesserungen und Erweiterungen in der Prozessor- Mikroarchitektur selbst, das heißt dem intelligenten und effizienten Aufbau der einzelnen Cores. Ähnlich wie bei den Server- Systemarchitekturen wird auch hier Parallelität – intern und extern – eine wichtige Rolle spielen.
Ein weiterer, vielleicht sogar noch wichtigerer Vorteil vom Dual/Multi-Core-Technologien ist ein verringerter Stromverbrauch. Auf Grund teilweise sehr hoher Packungsdichten in Server- Systemen wie bei Blades wird neben Preis/Leistung immer stärker die Wärmeabgabe und der Stromverbrauch zum entscheidenden Auswahlkriterium. Dual-Core-Server werden 2006 in der Industrie Standard sein und basieren auf Prozessoren wie Intels Xeon und Itanium.
64-Bit-Technologie
Die überwiegende Mehrheit der 2006 zum Einsatz kommenden neuen Enterprise-Systeme werden 64-Bit-Computing unterstützen, also die Möglichkeit bieten, mit 64 Bit weiten Adressen direkt auf den Hauptspeicher zugreifen zu können. Dieses ist schon seit einiger Zeit beispielsweise mit der Xeon-EM64T- und der Itanium-Architektur möglich und erlaubt es, große Datenmengen im direkten Speicherzugriff zu halten und verarbeiten zu können.Ein erhöhter Datendurchsatz, verbesserte Datenanalysen und schnellere Antwortzeiten sind nur einige der Vorteile des 64-Bit-Computing.
Virtualisierung
Für 2006 ist zu erwarten, dass die neuen Virtualisierungs-Technologien für den breiten Standard-Server-Markt eingeführt werden. Speziell für den Bereich der Server-Konsolidierung verspricht diese Technologie ein verbessertes Return-on-Investment (ROI) und reduzierte Total-Cost-of-Ownership (TCO) bei modernen IT-Lösungen. Das bedeutet verbesserte Leistungen und Funktionalitäten bei reduzierten Kosten. Darüber hinaus kann die Systemausnutzung verbessert und mehr Flexibilität und Skalierbarkeit angeboten werden, um schnell und rechtzeitig auf veränderte Anforderungen reagieren zu können.
Hierbei zeigt sich, dass bei einer durchdachten Konsolidierung in allen tangierten Bereichen stets eine ausreichende Leistung und Kapazität für jede einzelne und mehrere gleichzeitige Anwendungen bereit stehen, welche bei Bedarf flexibel, einfach und effizient skaliert werden können. Im Zusammenspiel mit Multi-Coreund 64-Bit-Computing bietet beispielsweise die Intel-Virtualization-Technology (VT) eine flexible und leistungsfähige Plattform für alle Bereiche des Enterprise-Computing. Mit Virtualisierung bezeichnet man die Möglichkeit zur Ressourcenteilung, so dass ungünstige Wechselwirkungen zwischen den einzelnen Nutzern möglichst ausgeschlossen werden.
Ein physikalisches Serversystem wird hierbei virtualisiert, so dass es mehreren Betriebssystemen – und damit deren laufenden Anwendungen – »vormacht«, alleiniger Nutzer des Systems zu sein, obwohl die Systemressourcen von mehreren Betriebssystemen und Anwendungen geteilt werden. Diese Teilung der Ressourcen ist gegenüber den Betriebssystemen und Anwendungen transparent und wird in der Regel von einem so genannten »Virtual Machine Monitor« (VMM) geregelt und überwacht. Der VMM ist in der Lage, gleichzeitig mehrere logische und komplette Server-Systeme nach außen abzubilden und zu verwalten. Dabei wird eine Virtualisierung aller Hardware-Komponenten vorgenommen und der jeweiligen Software über den VMM zur Verfügung gestellt.
Da bei VT die zu Grunde liegende Hardware zusätzlich Funktionalitäten zur Unterstützung eines VMM integriert, bekommt man eine leistungsfähige, zuverlässige und flexible Server- Virtualisierungs-Umgebung. Virtualisierung erlaubt es durch Partitionierung in mehrere sogenannte Virtuelle Maschinen (VMs) die vorhandenen Serverressourcen, mehrere verschiedene Betriebssystem- Umgebungen und deren Anwendungen gleichzeitig auf einem einzigen Server ablaufen zu lassen. Jede der VMs arbeitet und verhält sich wie ein eigener und völlig selbstständiger Server.
System-Architekturen
Bei den Server-System-Architekturen werden sowohl Scale-out (Clustering) als auch Scale-up (SMP) weiterhin im Markt verfügbar sein – je nach Anwendungsbereich und Ausrichtung der jeweiligen Infrastruktur.Typische Vertreter von Anwendungen für Scale-Up sind Datenbanken, Enterprise-Resource-Planning, Business- Intelligence, Supply-Chain-Management und Customer-Relationship-Management-Lösun-gen. Beispiele für solche Server stellen Intelbasierende Systeme von Bull, FSC, HP,IBM, SGI und Unisys dar.
Beim Scale-Out – der Replizierung einer System-Lösung (Knoten) in einem Cluster mit entsprechender Verbindungs-Hardware und -Software – werden hier die (Server-) Ressourcen verteilt, um eine hohe Skalierbarkeit und Zuverlässigkeit zu erreichen.Anwendungsbeispiele für Scale-Out-Lösungen sind alle parallelen und unabhängigen transaktionsorientierten Anwendungen wie parallele Datenbanken, jede Art von Web-Servern und so genannte »Farming«-Anwendungen, bei denen es nur auf einen Massendurchsatz ankommt und bei denen keine starken Abhängigkeiten zwischen den einzelnen Komponenten vorhanden sind.
Für die neuen Server-Speicher-Subsysteme werden 2006 immer mehr »Fully-Buffered- DIMMs« (FBD) eingesetzt. Der Vorteil besteht darin, dass man damit basierend auf Standard- DIMM-Technologien noch größere, schnellere und effizientere Hauptspeicher- Subsysteme implementieren kann.Einige der Xeon-basierenden Server werden FBDSpeicher erstmals im Verlauf der Jahres aufweisen. Mit der bereits etablierten PCI-Express- Technik (PCI-E) wird im Server-Umfeld weiterhin eine genügend starke (lokale) I/OTechnologie zur Verfügung stehen, um zum Beispiel die Kapazitäten und Möglichkeiten von Gigabit- und 10-Gigabit-Ethernet, Fibre- Channel und Infiniband ausschöpfen zu können.Außerdem bietet PCI-E genug Raum und Flexibilität für zukünftige Leistungssteigerungen, beispielsweise bekommt der ITVerantwortliche mit PCI-E ein schnelles und zuverlässiges Medium für die Implementierung von iSCSI und eine leistungsstarke Einbindung von »Remote-Storage«; eventuell sogar mit DAPL über Infiniband.
I/O-Beschleuniger
Um die rasant wachsenden Datenvolumina schnell und effizient über die Ein/Ausgabe- Systeme (I/O) zur rechten Zeit an den rechten Platz zu transportieren werden in steigendem Maße sogenannte I/O-Beschleuniger eingesetzt werden, beispielsweise die Intel-I/OAcceleration- Technology (I/OAT). Eingehende Arbeitslast-Untersuchungen im Bereich Enterprise-Server-Computing haben gezeigt, dass viele wichtige Anwendungen einen Großteil ihrer Zeit damit verbringen, Daten nur von einem Ort zum anderen zu bewegen. Dabei hat sich herausgestellt, dass – entgegen weit verbreiteter Auffassungen – nicht die Prozessoren für die Verarbeitungsgeschwindigkeiten maßgeblich entscheidend sind, sondern der Overhead der Datentransfers an sich.Darin enthalten sind zum Beispiel das Kopieren der Daten zwischen den verschiedenen Datenpuffern und die Bewegungen der Daten zum und vom Hauptspeicher sowie das Kopieren der Daten zwischen den einzelnen I/O-Geräten wie Netzwerkkarten und Speichermedien-Controllern.
Zusätzlich entfällt ein nicht unerheblicher Anteil der benötigten Zeit für Datenbewegungen auf den verwendeten I/OProtokollstack. Bei I/OAT werden die kritischen I/O-Komponenten auf der Plattform- Ebene adressiert und verbessert. Damit bekommt man zum Beispiel eine Verbesserung des vor rund 30 Jahren entwickelten und weit verbreiteten TCP/IP-Protokollstacks für heutige Prozessor-Architekturen in Bezug auf Leistungsverbesserungen (niedrigere Latenzzeiten und höhere Bandbreiten), höhere Zuverlässigkeit und Effizienz. In Gegensatz zu speziellen TCP/IP-Offload- Engines (TOE) ist I/OAT wesentlich universeller und flexibler, Gesamtsystem-orientiert und bietet die Möglichkeiten, auch andere Protokolle zu unterstützen und zu beschleunigen. Ein weiterer Vorteil von I/OAT besteht darin, dass es vollkommen transparent für alle Anwendungen ist, so dass keine Anpassungen auf der Anwendungsseite vorgenommen werden müssen; der IT-Verantwortliche profitiert unmittelbar von den Vorteilen und Beschleunigungen beim Einsatz von I/OAT.
Zur Steigerung der IT-Effizienz werden immer mehr integrierte System-Management- Lösungen eingesetzt, darunter die Intel- Active-Management-Technology (iAMT). Solche Management-Komponenten sind ein essentieller Bestandteil moderner Server zur Überwachung, Kontrolle und zum Schutz aller vernetzten Systeme einer IT-Infrastruktur. Es erlaubt ein besseres Remote- Monitoring und Management, so dass die Vorteile klar auf der Hand liegen: verbessertes Asset-Management, reduzierte Ausfallzeiten und weniger manuelle Interventionen vor Ort. So eine Plattform-integrierte Server- Management-Funktionalität sollte heutzutage bei keiner neueren IT-Lösung mehr fehlen.
Fazit
Ein moderner Einsatz der aktuellen und neuen Server-Technologien erlaubt es, Geschäftsvorteile durch IT auszunutzen und auszubauen oder bessere und neuere Einsatzmöglichkeiten zu realisieren. Auf Grund der vielfältigen Verfügbarkeit und des wesentlich besseren Preis/Leistungs-Verhältnisses der neuen offenen und leistungsstarken Server gegenüber proprietären Risc/Unix-Systemen erhalten besonders auch kleinere und mittelständige Unternehmen die Möglichkeit, am Fortschritt der IT teilhaben zu können. Sie sind damit in der Lage, ihre IT strategisch einzusetzen um konkurrenzfähig zu bleiben, ohne dabei Kompromisse eingehen zu müssen oder Abstriche an ihren Datenverarbeitungs- Möglichkeiten zu machen.
Herbert Cornelius,
Technical Marketing Manager, Intel