Um das Netzwerk im RZ zu beschleunigen, denken Experten auch über veränderte Topologien nach. Flacher bedeutet in diesem Zusammenhang auch effizienter - und zwar sowohl bei der Installation als auch im Betrieb.
Die Konsolidierung und Virtualisierung von RZs sind ein eindeutiger Trend. Damit kommen neue Herausforderungen auf die Netzwerkinfrastruktur zu. Klassische Konzepte und Designs scheitern meist: Ein Beispiel ist das Spanning Tree Protocol (STP), das trotz mehrfacher Verbesserungen entscheidende Nachteile hat. Einerseits entstehen suboptimale Pfade. Von der Root Bridge eher weiter entfernte Knoten können beispielsweise zwar benachbart sein, jedoch könnte die Verbindung zwischen ihnen blockiert sein. Dies bedeutet, dass der Verkehr zuerst den Weg entlang des Baums zur Root Bridge nehmen muss, bevor er zum zweiten Knoten weiterläuft. Andererseits konzentriert sich das Spanning Tree Protocol auf die Wurzel des Baums, die komplette Bandbreite des Netzwerks bleibt folglich ungenutzt. Shortest Path Bridging (SPB) revolutioniert diese klassischen Netzwerkarchitekturen. Das neue Protokoll ist optimal für Single-Hop-Netze ausgelegt. SPB ist ein international genormtes Standardprotokoll (IEEE 802.1aq), dass eine Zusammenarbeit von Single-Hop-Netzen unterschiedlicher Hersteller ermöglicht. 802.1aq verändert die Netzwerktechnik, indem es im Wesentlichen auf die Vereinfachung bei der Installation und den Betrieb von Carrier- und Enterprise-Netzwerken und Cloud-Diensten abzielt. Die Technik bietet logische Ethernet-Netze auf der Basis von nativen Ethernet-Strukturen. Dazu kommt ein so genanntes Linkstate-Protokoll zum Einsatz, um die Netzwerklogik, die Größe und Abhängigkeiten zu übermitteln. Die eigentlichen Ethernet-Pakete (Nutzdaten) sind in SPB eingekapselt, der Transport spielt sich zwischen den verschiedenen Knoten innerhalb des Rechenzentrums, aber auch zwischen mehreren Rechenzentren ab. Alle verfügbaren physischen Verbindungen sind dabei nutzbar. SPB existiert in zwei Varianten: SBP-V und SPB-M. Beide Protokolle ähneln sich, da sie IS-IS als Kontrollprotokoll verwenden, um die Netztopologie allen angeschlossenen Knoten zu vermitteln. Unterschiede der beiden Protokolle sind im Paketformat, in der Skalierbarkeit und im Provisionierungsmodus auszumachen. SPB-V verwendet den normalen 802.1Q-Ethernet-Rahmen, was wiederum bedeutet, dass nur sehr wenige Hardware-Modifikationen für einen Ethernet-Switch nötig sind, um das Protokoll zu unterstützen. In Bezug auf die Skalierbarkeit kann SPB-V einige hundert Knoten bedienen. SPB-V bedarf auch keiner Provisionierung von MAC-Adressen. Dies geschieht automatisch und dynamisch, wenn sie über das Netzwerk nach und nach angesprochen werden. SPB-M nutzt das 802.1ah-Paketformat (auch bekannt als MAC-in-MAC). Es kann bis zu etwa 1.000 Knoten bedienen. Neue Stationen, die ins Netzwerk kommen, sind zu provisionieren, wie es auch bei einem Provider-Netzwerk nötig ist. Eine Besonderheit, die SPB von anderen Konzepten wie Trill auszeichnet, ist die eingebaute Schnittstelle zu End-2-End-Service-Level-Management-Systemen. Mit Ethernet OAM (IEEE 802.3ah, 802.1ag und ITU-T Y.1731) gelingt die Überwachung von Service Level Agreements (SLAs) leicht, da die Lösungen nicht selten auf bereits bewährte OAM-Tools zurückgreifen können. Dies macht SPB speziell an der Schnittstelle zwischen LAN und WAN interessant. Die Ethernet-Infrastruktur sollte im RZ den Speicher und den Datenverkehr zwischen Prozessoren unterstützen. Beim Transport von IP-Verkehr können Frames im Ethernet verschwinden, ohne dass dies weitreichende Konsequenzen hätte. Problematischer ist das Ganze bei Speicherprotokollen wie Fibre Channel, die unter der Annahme entstanden, dass keine Pakete verschwinden. Damit dies tatsächlich auch nicht passiert, ist das Ethernet-Protokoll in folgenden Punkten zu verbessern: Priority based Flow Control – PFC – 802.1Qbb: Zurzeit unterstützt Ethernet mit der Norm 802.3 den PAUSE-Mechanismus, bei dem ein Switch ein so genanntes PAUSE-Paket generiert, wenn ein Ausgangsport überlastet ist. Dieses Paket signalisiert dem Empfänger-Switch, dass eine Sendepause eingelegt werden soll. Dieser Mechanismus ist jedoch im RZ eher unerwünscht, da nur wenige Paketarten wirklich verlustfrei sein müssen. Das PAUSE-Paket stoppt jedoch den gesamten Verkehr. Um dies zu umgehen, erlaubt die Priority-based Flow Control (PFC), dass für einen Switch Prioritäten vergeben werden können, bei dem der PAUSE-Mechanismus greift. Quantized Congestion Notification – QCN – 802.1Qau: PFC ist zwar ein Schritt in die richtige Richtung, ein verlustfreies Ethernet zu schaffen, es kann jedoch nicht das zugrundeliegende Problem lösen. Dieses tritt auf, wenn ein Host zu viele Daten an einen oder mehrere Endpunkte sendet, die wiederum den Datenverkehr nicht aufnehmen können, da es sich entweder um eine langsame physische oder um eine langsame logische Verbindung handelt. Was wirklich hilfreich in diesem Zusammenhang wäre, ist ein Mechanismus, der von den überlasteten Ports aus den Sendestationen, die den Stau verursachen (und möglichst nur diesen) signalisiert, dass sie langsamer übertragen oder die Übertragung von Datenpaketen ganz einstellen sollen. Im Gegensatz zu PFC, was lediglich gewisse Prioritäten betrifft, würde der hier beschriebene Mechanismus jedoch alle Sendestationen innerhalb dieser Priorität betreffen, was unfairerweise auch diejenigen Sendestationen „bestraft“, die eigentlich eine vernünftige Datenübertragungsrate aufweisen. Die Quantized Congestion Notification (QCN) generiert Kontrollnachrichten, die von Staupunkten zu den entsprechend vorgeschalteten Reaktionspunkten (Endstationen oder Switches) laufen. Somit ist nur bei einem Teil des Verkehrs innerhalb der unterstützten Prioritäten die Datenübertragungsrate zu reduzieren.
Optimierte Netzwerktopologie
Aktuelle Netzwerke für Datacenter sind vor allem für den klassischen Nord-Süd-Datenverkehr (Client-Server-basierender Datenverkehr) ausgelegt. Sie sind damit weniger für das häufige Einbinden neuer Server beziehungsweise das Versetzen von Servern konzipiert. Durch den Bedeutungszuwachs von Ost-West-Datenverkehrsmustern aufgrund von serviceorientierten Architekturen, Ethernet- oder IP-basierendem Speicherdatenverkehr und der Virtualisierung ist es nötig, die Schichten des Datacenter-Netzwerks zu überdenken. Das RZ muss hierarchisch so flach wie möglich aufgebaut sein, am besten mit nur zwei Schichten (Tiers), um die Latenzzeiten zu minimieren und somit die durchschnittliche Antwortzeit von Applikationen zu verbessern. Gleichzeitig entsteht durch die Virtualisierung von Anwendungen eine sehr dynamische Umgebung, in der sich virtuelle Maschinen in Echtzeit abhängig von CPU-, Speicher- und Bandbreitenanforderungen versetzen lassen. Um dies zu ermöglichen, muss das Netzwerk über Layer-2-Kompatibilität für die Domäne zur Mobilität von virtuellen Maschinen verfügen. Das bestehende Routing in der Datacenter-Architektur muss modifiziert werden, um größere Layer-2-Domänen bereitstellen zu können. Die meisten Server im RZ sind im Rack montiert (Rack Mount Server). Dennoch sind einige High-end-Solutions mit Bladeservern aufgebaut, die an einen Ethernet-Switch angeschlossen sind, der sich ebenfalls im Blade-Sub-Rack befindet. In einigen RZs existieren diese beiden Möglichkeiten parallel. Die Server verbinden sich mit der Zugangsschicht (Access) des Datacenters. Immer mehr Switches auf der Zugangsschicht sind so genannte feste, Top-of-the-Rack-Switches. Ihre Nutzung vereinfacht die Verkabelung unter den einzelnen Racks, die einen Schwerpunkt bei der Planung von großen Data-centern darstellt. Oft ist die Zugangsschicht auch durch so genannte End-of-Row-Switches repräsentiert (EOR). Beide Varianten arbeiten normalerweise nur auf Layer 2. Die Zugangsschicht mündet gewöhnlich in eine Aggregationsschicht, die im Layer 2 oder Layer 2/Layer 3 angesiedelt ist. Diese Aggregationsschicht führt wiederum in die Kernschicht (Core) des Datacenter-Netzwerks, die sich in den meisten Fällen auf Layer 3 befindet. Dies alles ist nun mit dem WAN-Layer verbunden, der die Verbindung zu anderen Datacentern beziehungsweise zu Außenstellen in privaten RZs oder zu Kundennetzwerken in Cloud-orientierten RZs bereitstellt.
Ausblick
Rack Mount Server und Bladeserver werden auch die typischen Komponenten im Next-Generation-Datacenter sein. Experten erwarten, dass sich immer mehr Top-of-Rack-Architekturen im Next-Generation-Access-Layer durchsetzen. Interessant ist die Tatsache, dass in der Architektur des Next-Generation-Datacenters keine Aggregationsschicht zu finden ist, was die ganze Topologie vereinfacht und die Laufzeiten zwischen Netzwerken minimiert. Ein weiterer Unterschied zum traditionellen Aufbau besteht darin, dass die Switches untereinander verbunden sind, um den Ost-West-Datenverkehr effizienter zu handhaben. Die Experten erwarten zudem ein erhöhtes Datenverkehrsaufkommen, das unter anderem durch Rich-Media-Applikationen und Speicherdatenverkehr, aber auch durch das dynamische Verwenden von virtuellen Maschinen über Server hinweg entsteht. Diesem Umstand begegnet die Technik mit 40GBit/s- und 100GBit/s-Links. Speziell die Storage Area Networks, die zukünftig immer mehr in die Ethernet-Infrastruktur eingebundeb sind, fordern schnellere Interswitch-Links.