Server-Technologien

Moderne Vielfalt

26. September 2007, 12:48 Uhr |

Moderne Server-Technologien und -Architekturen versprechen entscheidende Vorteile für den Geschäftserfolg. Speziell eine Server-Architektur-Konsolidierung mit Industrie-Standard-Komponenten eröffnet ein enormes Potenzial an Leistungsfähigkeit, Flexibilität und Kosteneinsparungen.

Als zukünftiger Prozessor-Trend im Server-Computing kristallisiert sich mehrund mehr eine Multi-Core-Technologie heraus.

Seit einigen Jahren haben sich Intel-basierte Server-Systeme fest am Markt etabliert. Auf Grund ihrer kontinuierlich steigenden Leistungsfähigkeit und immer stärker auch wegen des attraktiven Preis-Leistungs-Verhältnisses entscheiden sich viele Firmen für solche Server-Systeme und vertrauen bei ihren IT-Lösungen auf Intel-Technologie. Weitere Merkmale dafür sind die Qualität und Zuverlässigkeit der Systeme, sowie die offene Architektur und ein gesicherter Investitionsschutz. Um schnell und rechtzeitig auf veränderte Unternehmens-Anforderungen reagieren zu können, weisen diese Server-Systeme zusätzlich eine hohe Flexibilität und effiziente Skalierbarkeit auf.

Server-System-Architekturen

Moderne Server-Lösungen basieren heute vielfach auf einem so genannten »Multi-Tier« Ansatz, bei dem die unterschiedlichsten Aufgaben auf mehrere Bereiche verteilt werden. Auf Intel-Itanium-Architektur basierende Server-Systeme werden im Highend- und Backend-Bereich (Datenbank) sowie im mittleren Applikations-Tier eingesetzt, auf dem häufig die eigentliche Business-Logik implementiert ist. Im Frontend-Tier und in der Infrastruktur kommen sehr viel Intel-Xeon-Architektur-basierende Server-Systeme zum Einsatz, welche seit Mitte 2004 mit der Intel-Extended-Memory-64-Bit-Technologie (EM64T) auch größer als 4 GByte direkten Prozess-Adressraum anbieten.

Als Server-System-Architekturen eignen sich im Highend- und Backend-Bereich besonders größere SMP- (Symmetric-Multi-Processing) und ccNUMA-Systeme (Cache-Coherent-Non-Uniform-Memory-Access) mit einem gemeinsamen – sehr großen – Hauptspeicher und einem gemeinsamen leistungsstarken Ein/ Ausgabe-System. Solche Systeme glänzen durch eine hohe Leistungsfähigkeit, Flexibilität und Skalierbarkeit, auch für komplexere daten- und kommunikationsintensive Verarbeitungslasten. Diesen Ansatz der Leistungssteigerung nennt man auch »Scale-Up«. Einige der Anwendungsbereiche für Scale-Up-Server-Systeme sind die folgenden:

  • Große Datenbanken, speziell »In-Memory« und »Real-Time« Einsatzmöglichkeiten,

  • Enterprise-Resource-Planning (ERP), Warenwirtschaftssysteme,

  • Supply-Chain-Management (SCM), Verwaltung und Optimierung von Logistik-Prozessen, PPS

  • Customer-Relationship-Management (CRM, inklusive Call-Center),

  • Business-Intelligence (BI), Data-Mining und Data-Warehousing (Systematische Datenanalyse und Datenbestand, Entscheidungsunterstützung) sowie

  • Product-Lifecycle-Management (PLM).

Daneben kann man diese großen Scale-Up-Systeme auch hervorragend für alle Arten der Server-Konsolidierung einsetzen, darunter:

  • Anwendungs-Konsolidierung – die Zusammenlegung diverser Anwendungen und Betriebssysteme auf ein oder mehrere große und partitionierte Server-Systeme.

  • Daten- und Speicher-Konsolidierung – die Zusammenlegung aller Daten in einer oder wenigen großen und zentralen Datenbanken und Speicher-Systemen,

  • physikalische Konsolidierung – die Zusammenlegung von mehreren Servern, welche die gleichen Anwendungen und Betriebssysteme besitzen,

  • Zentralisierung – die Zusammenlegung von vielen verteilten Servern in ein oder wenige zentrale Rechenzentren,

  • Architektur-Konsolidierung – die Vereinfachung und Zusammenführung aller Server-Systeme auf eine gemeinsame (Rechner-)Architektur sowie

  • Total-Cost-of-Ownership-Optimierung.

Neben dem Scale-Up gibt es einen weiteren Ansatz, die Funktionalitäten einer Server-Lösung zu erweitern und zu erhöhen. Diese Möglichkeit ist unter dem Namen »Scale-out« bekannt und basiert auf der Replizierung einzelner – meist kleinerer – Server-Systeme zu einem (verteilten) »Cluster« mit mehr oder weniger schneller Kommunikations-Infrastruktur. Die jeweilige Implementierung von Clustern hängt sehr stark von den aktuellen Anforderungen und den Anwendungsbereichen ab. Man kann grob die folgenden drei Einsatzbereiche von Clustern am Markt beobachten, wobei auch vielfach Mischformen dieser drei Ansätze anzufinden sind:

  • Für hohe Rechenleistung (High-Performance Computing),

  • für hohen Durchsatz (High-Throughput-Computing, Farming) inklusive Load-Sharing und Load-Balancing sowie

  • für hohe Verfügbarkeit (High-Availability-Computing), inklusive Automatic-Fail/Switch-Over und Disaster-Recovery for Business-Continuity.

Je nach Anforderungen, Anwendungsbereich und Infrastruktur kann ein Scale-Up oder ein Scale-Out die bessere Lösung sein. Häufig stellt auch eine Kombination beider Ansätze die beste Lösung dar. Scale-out ist letztlich nicht an die Größe der einzelnen Knoten gebunden. Es ist abzusehen, dass sich dieser Scale-Out-Trend in der Zukunft sogar noch intensivieren wird. Eine hierbei viel versprechende Technologie sind die so genannten Blade-Server-Systeme, die eine noch höhere Integration und Packungsdichte aufweisen als herkömmliche Rack-mounted-Lösungen. Damit wird es möglich sein, hochverfügbare und skalierbare Server Lösungen aufzubauen, die für höchste Leistung und flexiblen Ausbau geclustert oder partitioniert werden können.

Server-Technologien

Bei den Server-Prozessoren stehen heute durchweg Prozessoren mit 64-Bit Speicheradressierung zur Verfügung, bei denen neben hoher Leistung im Highend-Bereich wichtige RAS-Funktionalitäten (Reliability, Availability, Servicebility) und eine gute Skalierbarkeit unabdingbar sind. Ein Beispiel dafür ist der Intel-Itanium-Prozessor, der heute in seiner vierten Generation verfügbar ist und kontinuierlich weiterentwickelt wird. Die nächste Itanium-Prozessor-Generation mit dem Codenamen »Montecito« ist für 2005 geplant und wird in 90 nm Herstellungstechnologie gefertigt werden. Der Montecito-Prozessor benutzt eine Dual-Core- und Multi-Threading-Architektur und wird mit seinen 1,7 Milliarden Transistoren bis zu 24 MByte integrierten Cache aufweisen, der eine verbesserte Verarbeitungsleistung gewährleistet. Mehr als 50 Prozent der Fortune-100-Firmen setzen bereits die Itanium-Architektur erfolgreich ein.

Eine 64-Bit-Speicheradressierung ist mit der schon erwähnten neuen EM64T-Technologie auch bei der Intel-Xeon-DP-Architektur verfügbar und wird im nächsten Jahr auf die Xeon-MP-Server-Prozessor-Familie übertragen. Neben EM64T verfügen diese Xeon-Prozessoren über den erweiterten SSE3-Instruktionssatz, Hyper-Threading und höhere Taktraten und unterstützen schnellere System-Busse und Speichermodule.

Als zukünftiger Prozessor-Trend im Server-Computing kristallisiert sich mehr und mehr eine Multi-Core-Technologie heraus, die nach und nach über Hyper-Threading und Dual-Core in den Markt eingeführt werden wird. Multi-Core bezeichnet die Implementierung mehrerer Prozessor-Kerne (Cores) auf einem einzigen Chip für eine höhere Verarbeitungsleistung und effiziente Ausnutzung der verfügbaren Transistoren. Nach heutigem Kenntnisstand der Material- und Herstellungs-Technologien wird erwartet, dass man die Anzahl der integrierten Transistoren auf einem einzigen Chip nach Moores Law weiterhin bis 2010 alle 18 bis 24 Monate verdoppeln kann. Weitere zusätzliche Leistungssteigerungen erhält man durch Verbesserungen und Erweiterungen in der Prozessor-Mikro-Architektur selbst, das heißt dem intelligenten und effizienten Aufbau eines Prozessors. Auch hier wird Parallelität – intern (beispielsweise EPIC, SSE3, HT, MT) und extern (Dual/Multi-Core, SMP) – nach wie vor eine wichtige Rolle spielen.

Neben dem Prozessor an sich spielt im Server-Computing die System-Plattform eine erhebliche Rolle und bestimmt stark die Eignung eines Systems für den Einsatz im Server-Umfeld. Dieses gilt sowohl für die Skalierbarkeit (SMP und ccNUMA), das Speicher-Sub-System und für die Ein/Ausgabe (I/O), und zwar bezüglich der Leistungsfähigkeit, der Flexibilität und nicht zuletzt für die Verfügbarkeit und Robustheit einer Server-Lösung.

Für die Speicher-Subsysteme werden momentan moderne DDR-2-Technologien eingesetzt, die eine höhere Speicher-Kapazität bei geringerem Stromverbrauch erlauben. Als nächste Technologie für Server-Speicher-Systeme werden die so genannten »Fully-Buffered-DIMMs« (FBD) geplant, welche basierend auf Standard-DIMM-Technologien noch größere, schnellere und effizientere Hauptspeicher-Subsysteme erlauben.

Auf der System- und Plattform-Ebene werden kontinuierlich die notwendigen RAS-Merkmale verbessert und weiterentwickelt, inklusive Funktionalitäten zur Verbesserung des System-Monitoring und Managements. In Zukunft werden auch Virtualisierungs-Technologien zum Einsatz kommen, die auf einer hardwaremäßigen Unterstützung aufbauen und es erlauben, Server-Systeme zu partitionieren. Diese Virtualisierungs- und Partitionierungs-Technologien werden zukünftig sowohl »Soft-Partitions« als auch »Hard-Partitions« erlauben. Eine Einteilung in Server-Partitionen ist je nach Implementierung mehr oder weniger dynamisch, erlaubt aber eine sehr hohe Separierung und Modularisierung, was der Flexibilität, Verfügbarkeit und Zuverlässigkeit zugute kommt.

Im Ein-Ausgabe-Bereich (I/O) hat der Übergang von PCI und PCI-X auf die neue PCI-Express-Generation bereits 2004 begonnen und ist in den kommenden Jahren der Standard für lokale Server-I/O-Anschluss-Technologie. PCI-Express wurde als neue, leistungsstarke und skalierbare I/O-Technologie entworfen, um nach ISA und PCI als offener und flexibler Industrie-Standard für die nächsten zehn Jahre eingesetzt zu werden. Die heute verfügbaren PCI-Express-Bandbreiten und Durchsatzraten reichen von 500 MByte/s (x1) bis 8 GByte/s (x16-Implementierung) bidirektionaler Transferraten. Damit steht im Server-Umfeld eine genügend starke (lokale) I/O-Technology zur Verfügung, um zum Beispiel die Kapazitäten von 10-Gigabit-Ethernet, Fibre-Channel und Infiniband voll ausschöpfen zu können. Zudem bietet sie genug Raum für zukünftige Leistungssteigerungen. Damit bekommt man außerdem ein schnelles und zuverlässiges Medium für die Implementierung von iSCSI und eine elegante Einbindung von Remote-Storage. Infiniband selbst als flexibler und leistungsstarker Interconnect zwischen System und deren Peripherie – also Storage und Netzwerk – wird mehr und mehr im Server-Umfeld eingesetzt, nicht zuletzt auf Grund seiner attraktiven Quality-of-Service- und Konfigurations-Möglichkeiten.

Fazit

Ein moderner Einsatz der aktuellen und neuen Server-Technologien erlaubt es, Geschäftsvorteile durch IT auszunutzen und auszubauen oder bessere und neuere Einsatzmöglichkeiten zu realisieren. Auf Grund der vielfältigen Verfügbarkeit und des wesentlich besseren Preis-Leistungs-Verhältnisses der neuen offenen und leistungsstarken Server-System-Lösungen gegenüber den proprietären RISC/Unix-Systemen erhalten besonders auch kleinere und mittelständige Firmen die Möglichkeit, am Fortschritt der IT-Technologien partizipieren zu können. Sie sind damit in der Lage, IT strategisch einzusetzen, um konkurrenzfähig zu bleiben, ohne dabei Kompromisse eingehen zu müssen oder Abstriche an ihren Datenverarbeitungs-Möglichkeiten zu machen.

Speziell eine Server-Architektur-Konsolidierung mit Industrie-Standard-Komponenten eröffnet ein enormes Potenzial an Leistungsfähigkeit, Flexibilität und Kosteneinsparungen. Es erlaubt außerdem eine Konsistenz über alle Plattformen, die kontinuierliche Ausnutzung der technologischen Fortschritte sowie eine hohe Planungs- und Investitionssicherheit für die Kunden. Dr. Herbert Cornelius, Technical Marketing Manager, Intel


Jetzt kostenfreie Newsletter bestellen!

Matchmaker+