Durch die kontinuierliche Expansion und den ständigen Zuwachs im RZ ist eine genau geplante Verkabelungsinfrastruktur sowohl für den aktuellen als auch für den zukünftigen Erfolg entscheidend. Die grundlegenden Ansprüche an diese Verkabelungsinfrastruktur liegen in Zuverlässigkeit, Handhabung, Skalierbarkeit und Flexibilität. Eine Glasfaserverkabelung wird meist über mehr als 20 Jahre im Einsatz sein und muss über viele Iterationen der Systemlösungen arbeitsfähig bleiben.
Die Handhabung der Gesamtanforderungen an ein Rechenzentrum erscheint bisweilen zunächst als
eine eher entmutigende Aufgabe, aber es gibt bereits Tools, die Unterstützung beim allgemeinen
Layout und Design liefern. Die TIA-942 (Telecommunications Infrastructure Standard for Data
Centers) bietet einen umfassenden Überblick über die strukturierte Verkabelung in einem
Rechenzentrum. Sie empfiehlt die Verwendung einer Sterntopologie und definiert die Bereiche und
Felder in einem für Unternehmen typischen Rechenzentrum.
Zu den Bereichen in einem Rechenzentrum für Telekommunikation gehören die Main Distribution Area
(MDA), die Zone Distribution Area (ZDA) und die Equipment Distribution Area (EDA). In der MDA
befindet sich der Haupt-Cross-Connector (MC) als zentraler Verteilerpunkt für die strukturierte
Verkabelungslösung des Rechenzentrums. Die ZDA ist als derjenige Bereich definiert, in dem eine
Verteilerarchitektur für eine bestimmte Zone implementiert wird. Wenn eine ZDA existiert,
funktioniert sie wie ein Konsolidierungspunkt zwischen MDA und den regionalen Bereichen oder Zonen
innerhalb des Rechenzentrums. Das Einbeziehen dieser Architektur in das Verkabelungsdesign eines
Rechenzentrums ermöglicht die einmalige Installation der Backbone-Verkabelung. Dies erlaubt es,
flexibel auf ständig wiederkehrende Konfigurationen zu reagieren, die bei Verschiebungen,
Ergänzungen und Veränderungen auftreten.
Die EDA ist der Bereich für das finale Equipment inklusive der Computersysteme und der
Telekommunikationsgeräte. Damit eine optimierte Leistung hinsichtlich aller Anforderungen an ein
Rechenzentrum möglich ist, darf die Topologie der Verkabelungsinfrastruktur nicht unabhängig
gewählt werden. Die Topologie der Infrastruktur und die Produktlösungen sind vielmehr als Einheit
zu betrachten.
Wenn eine strukturierte Verkabelungsarchitektur zusammen mit einer modularen Verkabelungslösung
arbeitet, bietet dies eine Konnektivität gemäß TIA-942 und ermöglicht eine flexible und steuerbare
Infrastruktur. Eine mögliche modulare Verkabelungslösung besteht aus Verteilersträngen, die aus
vorgefertigten MPO-Stecksystemen mit zwölf Fasern bestehen. Diese Verteilerstränge sind mit den
Modulen oder Kabelsträngen verbunden, die aus dem Zwölffaser-MPO-Stecksystem als separate
Single-Faser-Stecksysteme abzweigen. Das Systemequipment ist über Verbindungskabel mit diesen
abzweigenden Modulen verbunden, was das System vervollständigt.
Durch den Einsatz von modularen, MPO-basierenden Verkabelungssystemen, die neben MPO-Strängen
und abzweigenden Modulen auch abzweigende Kabelstränge enthalten können, ergeben sich verschiedene
Vorteile. Dazu gehören zum Beispiel eine 50-prozentige Platzeinsparung bei den Kabelrinnen, eine
80-prozentige Verbesserung in der Einsatzzeit sowie eine 70-prozentige Reduzierung des Kabelwusts
in den Gehäusen und Racks. Eine modulare, hochdichte Lösung in einer strukturierten Kabeltopologie
kann leicht auf Tausende Ports skalieren. Die Zeit für Verschiebungen, Ergänzungen und
Veränderungen in Rechenzentren reduziert sich dann drastisch, wodurch sich wiederum operationale
Kosten einsparen lassen.
Während ein System aus Kabelsträngen und Modulen in den meisten Bereichen in einem Rechenzentrum
ohne Probleme funktioniert, erfordern die besonderen Gegebenheiten eines Storage Area Networks
(SANs) und dabei vor allem beim SAN-Richtgerät oft eine Speziallösung. Aufgrund der extrem hohen
Port-Dichte der SAN-Richtgeräte kann eine Lösung bestehend aus Modulen und Verbindungskabeln viel
Platz im Rack sowie eine hohe Dichte an Jumpern erfordern, die wiederum ein zusätzliches
Jumper-Management benötigen. Um dieser Anforderung gerecht zu werden, wurden kundenspezifische
Lösungen für die Kabelstränge entwickelt, um die vorab genannten Probleme zu mildern. Ein
Kabelstrang ermöglicht es, einen Vorteil aus der Dichte des MPO-Stecksystems am Verbindungsgerät zu
ziehen, während gleichzeitig separate Stecksysteme als Schnittstelle zur Elektrik dienen können.
Wenn anstelle von individuellen Verbindungskabeln ein Zwölffaserkabel zum Einsatz kommt, reduziert
der Kabelstrang eine Überlastung des SAN-Richtgeräts sowie der vertikalen Kabelleitungen und
Kabelrinnen weitestgehend.
Zusätzlich zu den Vorteilen einer strukturierten Verkabelung lässt sich die MPO-basierende
Verkabelungsinfrastruktur einfach auf Techniken mit höherer Datenmenge migrieren. Dazu gehören auch
Lichtwellenleiter. Diese Technik gibt es mit 32, 64 und 128 Gigabit-Faserkanälen und bei 40 und 100
Gigabit Ethernet.
Für Datenmengen bis zu 10GbE nutzt man aktuell serielle Übertragungen mit einem direkt
moduliertem 850nm-VCSEL. Wenn die Datenmengen über 16 GBit/s liegen, wird eine zuverlässige,
serielle Übertragung über Duplexfasern unmöglich, wenn der 850nm-VCSEL direkt bei den extremen
Betriebstemperaturen im Rechenzentrum zu modulieren ist. Deshalb kommen dann 40- und
100GbE-Lichtwellenleiter zum Einsatz.
Durch die Lichtwellenleitertechnik - inklusive 850nm-VCSEL und OM3Fasern - ergeben sich für
Ethernet günstige Lösungen mit hoher Datenmenge. Eine "räumliche" LWL-Übertragungstechnik
vervielfacht oder verteilt ein Signal einer hohen Datenmenge über verschiedene Fasern, die
gleichzeitig übertragen und empfangen werden. Beim Empfänger sind die Signale dann wieder auf das
Originalsignal mit hoher Datenmenge verringert.
Das IEEE (Institute of Electrical and Electronics Engineers) gründete im Januar 2008 die
Arbeitsgruppe IEEE 802.3ba, um die Lenkung von 40- und 100GbE-Datenmengen zu erforschen und zu
entwickeln. Die Zielsetzung des PARs (Project Authorization Request) umfasste eine
Mindestentfernung von 100 m für die laseroptimierte 50/125µm-Multimode-Faser (OM3). Sie ist die
einzige Mulitmode-Faser, die im PAR vorkommt.
Bei dem IEEE-Treffen im Mai wurden verschiedene Überlegungen zugrunde gelegt, damit sich ein
Fundament für die Generierung des ursprünglichen Konzepts für den 40- und 100GbE-Standard
etablieren ließ: LWL-Übertragung wurde als Grundvorgabe für 40- und 100GbE über die OM3-Faser
eingeführt. Diese Vorgabe definiert 40- und 100GbE-Schnittstellen entweder als 4×10-GbE-Kanäle aus
vier Fasern pro Richtung oder entsprechend als 10x10GbE Kanäle aus zehn Fasern pro Richtung.
Zudem sind Faserbandbreite, Bitversatz und Einführungsdämpfung bei allen Verbindungen ebenfalls
zu berücksichtigen, wenn sichergestellt sein soll, dass die Verkabelungsinfrastruktur den
zukünftigen Anforderungen von 40- und 100GbE genügen wird. Sind diese Faktoren berücksichtigt, kann
man sicher davon ausgehen, dass das System die vorgeschlagene Entfernung von 100 Metern bei einem
Betrieb über die OM3-Faser erfüllt.
Die OM3-Faser ist die einzige Multimode-Faser, die für 40- und 100GbE-Systeme infrage kommt. Die
Faser ist für 850nm-Übertragungen optimiert und hat eine effektive modale Bandbreite von mindestens
2.000 MHz*km. Die so genannte minEMBc (minimum Effective Modal Bandwidth calculated) ist eine
Maßeinheit für die Systembandbreite von OM3-Fasern und bietet im Vergleich mit der DMD-Technik
(Differential Modal Delay) die bessere und präzisere Messungen. Die minEMBc lässt die Berechnung
eines genauen, skalierbaren Werts der Bandbreite zu.
Die optische Laufzeitdifferenz ist definiert als die zeitliche "Flugdifferenz" zwischen den
Lichtsignalen, die sich in den verschiedenen Fasern bewegen. In Lichtwellenleitern ist sie
unbedingt zu beachten. Extreme Laufzeitdifferenz oder Verzögerungen in den verschiedenen Kanälen
können Bitfehler verursachen. Die Verwendung einer Verkabelungsinfrastruktur mit wenig
Laufzeitdifferenz kann dagegen die Übereinstimmung mit einer Vielzahl von Applikationen
sicherstellen. Infiniband als ein Protokoll für Lichtwellenleiterübertragung hat beispielsweise ein
Laufzeitdifferenzkriterium von 0,75 ns.
Die Einführungsdämpfung (IL) innerhalb eines Systemkanals beeinflusst das System bei einer
maximalen Übertragungsdistanz für eine bestimmte Übertragungsrate. Dadurch nimmt die
Einführungsdämpfung bei den Verbindungen insgesamt zu, die Übertragungsdistanz bei dieser
Datenmenge jedoch ab. Die aktuelle Grundvorgabe für Multimode-40- und 100GbE-Übertragungen sieht
einen Stecksystemverlust von insgesamt 1,5 dB bei einer Arbeitsdistanz von 100 Metern vor. Dies ist
zu berücksichtigen, wenn man die Spezifikationen der Verbindungskomponenten für Einführungsdämpfung
evaluiert, die für das Design einer Verkabelungsinfrastruktur in einem Rechenzentrum gelten sollen.
Verlustarme Verbindungskomponenten ermöglichen eine maximale Flexibilität und gleichzeitig die
Einbindung von Vielfach-Verbindungspaaren in das System.