Bis vor wenigen Jahren waren die Architektur und das Design in den Rechenzentren relativ strikt vorgegeben, sodass die Innovation praktisch zum Erliegen kam. Der Fortschritt bei IoT und selbstfahrende Fahrzeuge sowie die Verbreitung von Cloud Computing fordern heute mehr Bandbreite, kürzere Latenzzeiten und damit neue Architekturen.
Neue Switching-Konzepte und Software-Defined Networks treiben die notwendige Geschwindigkeit in den RZ weiter hoch. Die IEEE-Gremien arbeiten zurzeit an verschiedenen neuen Ethernet-Standards, die bis zu Geschwindigkeiten von 400 GBit/s reichen.
Der Prozess zur Ermittlung der besten Lösung beginnt mit dem Verständnis der zur Wahl stehenden Designoptionen. Kann die vorgeschlagene Topologie zuverlässig mit der ins Auge gefassten Netzwerkausrüstung funktionieren? Wenn Optionen verfügbar sind, welche Strategie erscheint am preiswertesten und zuverlässigsten? Zur Beantwortung dieser Fragen ist es sinnvoll, zunächst die Branchenstandards zu betrachten, in denen die Auswahlmöglichkeiten für die Ethernet-Datenverbindung detailliert festgelegt sind. Die Tabelle auf dieser Seite enthält nicht nur die bereits verabschiedeten Standards, sondern auch diejenigen im Task-Force-Stadium.
Es existieren noch weitere Anwendungen (einschließlich 50G und 400G), die sich derzeit in der Arbeitsgruppenphase von IEEE 802.3 befinden. Analog sind heute die Fibre-Channel-Applikationen bis zur 256 GFC standardisiert, die eine Übertragungsrate von 5 × 56.1 GBaud ermöglichen. Neben diesen standardisierten Applikationen bietet der Markt proprietäre Systeme wie das Cisco-BIDI-System, das mit einem Wellenlängen-Multiplexing im Multimode-Bereich 40 GBit/s übertragen kann.
Die Länge der Strecke ist weiterhin eine kritische Größe, obwohl das Dämpfungsbudget und somit effektiv mögliche Distanz der eher ausschlaggebende Faktor ist. Neben der Länge ist in diesem Fall auch die Frage nach Multimode oder Singlemode zu betrachten, und zwar nicht nur aus einer Längenüberlegung heraus, sondern auch aus der Gesamtheit aller Argumente inklusive der Anschaffungskosten der SFPs und dem in vielen Fällen noch doppelt so hohen Energiebedarf der Singlemode-SFPs. Die Bestimmung der Verluste für die Systemverbindungen erfordert ein Verständnis der eingesetzten Komponenten. Diese Merkmale können je nach Hersteller und sogar innerhalb einer Produktionscharge variieren. Ein Anwender ist offensichtlich am Worst-Case-Wert für die Einfügedämpfung interessiert, um sicherzustellen, dass die von der Netzwerkausrüstung zugelassenen Toleranzen nicht überschritten werden. Glasfasermedien mit hoher Bandbreite können weitaus längere Verbindungen unterstützen, während Glasfasern geringerer Qualität nur über kürzere Entfernungen zuverlässig funktionieren. Wenn sich eine Planung auf Standards und die vom Komponentenhersteller angegebenen Leistungsdaten stützt, liegen all diese Verbindungsberechnungen in der Verantwortung der Systemdesigner. Die Anforderungen für das sogenannte Tag-2-Design verlangen als Mindestanforderung, dass sich die nächsthöhere Netzwerkgeschwindigkeit auf der Basis der anfänglichen Designtopologie ebenfalls unterstützen lässt. Dazu ist es nötig, alle möglichen Kombinationen zu berücksichtigen, die zum Ziel führen können.
Hilfreich kann die Betrachtung des maximalen (nicht des durchschnittlichen oder typischen) Verlusts sein, den ein beliebiges Verkabelungselement zum Verbindungsentwurf beitragen wird. Die Bandbreite der Glasfasermedien ist ebenfalls zu berücksichtigen - OM3 hat beispielsweise eine geringere Bandbreite als OM4.
Zudem ist die künftige Option von parallelen Multifaser-Verbindungen zu berücksichtigen. Schließlich zählt auch die Auswirkung der Skalierung und Größe des Rechenzentrums: In welcher Form begrenzt die Länge der erforderlichen Verbindungen die Auswahlmöglichkeiten, die ein Betreiber für Netzwerkgeschwindigkeiten der nächsten Generation hat? Eine Fallberechnung der Szenarien mit Standardkomponenten erfordert die Worst-Case-Werte der Einfügedämpfung für alle Komponenten im Kanal. In einen Fallbeispiel weisen die LC/MPO-Module eine Einfügungsdämpfung von 0,50 dB auf. Das Glasfaser-Hauptverbindungskabel ist für eine Einfügungsdämpfung von 3,5 dB/km spezifiziert. Für die Duplex-Glasfaser-Patch-Kabel nimmt das Beispiel eine Länge von wenigen Metern an, sodass sie nicht wesentlich zur Einfügungsdämpfung beitragen.
Ein klassisches Szenario ist der Entwurf einer Server-zu-Netzwerk-Verbindung mit 10G Ethernet über eine Länge von 130 Metern mit OM4-Glasfaser. Dabei liegt das Gesamtverlustbudget bei 2,39 dB, was unter dem Verlustgrenzwert von 2.9 dB für diese Anwendung über OM4-Glasfaser liegt. Aufgrund dieser Analyse dürfte die Verbindung ordnungsgemäß funktionieren. Ein häufiger Fall im Rechenzentrumsbetrieb ist dann die Erweiterung um zusätzliche Verbindungen, wenn das Netzwerk wächst und neue Räume online gehen. Im Beispiel kommt eine weitere Verbindung hinzu, durch die sich die Gesamtkanallänge auf 150 Meter erhöht und die zwei weitere LC/MPO-Module aufweist. Die neue Gesamt-Einfügedämpfung liegt nun bei 3,53 dB und überschreitet damit den maximal zulässigen Wert. Bei einem solchen Entwurf würde die Verbindung wahrscheinlich entweder nicht funktionieren oder aber übermäßig viele Bitfehler liefern.
Eine Alternative es, ist auf Spezialkomponenten der Hersteller zurückzugreifen, die Ultra-Low-Loss-Leistung mit einer maximalen Dämpfung von 0,35 dB pro Kassette bieten. Mit diesen Einsparungen kommt man auf ein Gesamtbudget von 2,63 dB. 10 Gigabit Ethernet wird funktionieren.
Bei der Aufrüstung dieser Verbindung von 10GbE auf 40GbE durch die Verwendung von 40GBase-SR4-Lichtleitertechnik ergibt sich eine neue Berechnung der Einfügedämpfung. Die Gesamt-Einfügedämpfung reduziert sich bei der Aufrüstung mit paralleler Lichtleitertechnik, und zwar wegen des Austauschs von LC/MPO-Module durch einfache MPO-Adapter-Panel. Trotz der geringeren Einfügungsdämpfung hat die Verbindung jedoch das Gesamtverlustbudget von 1,5 dB für 40GBase-SR4 für Anwendungen an OM4-Glasfaser überschritten. Bei einer Aufrüstung auf 40GbE würde die Verbindung also wahrscheinlich fehlschlagen oder Fehler erzeugen. Der Hersteller Commscope bietet für solche Überlegungen einen Rechner an, der dem Planer oder Betreiber die theoretische Arbeit abnehmen kann.
Neben der EN-50173-x-Serie, deren Teil 5 die spezifischen Anforderungen an die RZ beschreibt, ist vor allem die EN-50600-Serie zur Planung von Rechenzentren in Betracht zu ziehen. Der Teil der EN 50600-2-4 deckt die Telekom-Infrastruktur ab.
Der Schwerpunkt bei der Ausarbeitung der Norm EN 50600-2-4 lag neben den Architekturen und Anforderungen für die Verfügbarkeitsklassen auf Migration und Wachstum. Das Wachstum der IT-Kapazität und die Umstellung von Anwendungen für höhere Geschwindigkeiten sind in Rechenzentren ein entscheidender Faktor. Die Infrastruktur der Verkabelung eines Rechenzentrums muss entsprechend dieser Dynamik ausgelegt sein und eine schnelle und problemlose Erweiterung des Rechenzentrums ermöglichen, etwa durch Inbetriebnahme zusätzlicher Geräte. Außerdem sind Migrationspfade für die im Rechenzentrum verwendeten Netzwerk- und Speicheranwendungen erforderlich. Die EN 50600-2-4 unterstützt diese Anliegen, indem sie entsprechende Anforderungen für Verkabelungsarchitekturen, Cross Connects und Kabeltrassen definiert.
Aus heutiger Sicht ist die Definition der Verfügbarkeitsklasse des RZ der wichtigste Schritt, der die anschließenden Verkabelungstopologien und Redundanzen direkt vorgibt. Ein zentraler Cross Connect, der all die verschiedenen Glasstrecken terminieren kann und der ein einfaches und schnelles Rangieren zulässt, spart gleichzeitig auch Platz in den produktiven Rack-Reihen, da er keine Kühlung benötigt.