40GbE und 100GbE schaffen neue Optionen

Glasfaser im RZ

13. August 2010, 6:00 Uhr | Jonathan Lewis, Product Support Specialist bei Siemon EMEA und Peter Breuer, Regional Director Central EMEA Siemon

Die Ausarbeitung und Verabschiedung des Kategorie-6A-Standards für die Kupferverkabelung hat auch die Glasfaserwelt ihrerseits wieder mehr in Bewegung gebracht. Lange auf den Einsatz im Backbone-Bereich eines Netzes beschränkt, ist die Glasfaser jetzt auch zum Übertragungsmedium der Wahl im RZ geworden.

Während die Wirtschaft auf globaler Ebene sich länger als erwartet auf magere Zeiten einstellt,
bleiben viele vertikale Märkte am Ball und investieren weiter, mitunter sogar sehr umfangreich in
neue Glasfasertechnik und Infrastrukturen, um effizienter zu arbeiten, Kosten zu reduzieren und um
durchstarten zu können, wenn die Wirtschaft sich wieder erholt.

Es ist kein Geheimnis, dass der Großrechner von damals sich ins Rechenzentrum von heute
verwandelt hat – ein großes zentralisiertes Kraftpaket am Puls des modernen Unternehmens, randvoll
mit dem Neuesten, was die Technik zu bieten hat. Server, Speicher- und Verbindungstechnik, alle
benötigen Strom, Kühlung und eine immer leistungsfähigere Infrastruktur. In der
Rechenzentrumsumgebung gelangt die Glasfaser zu ihrer wahren Reife. Lange war ihr Einsatz auf den
Backbone-Bereich eines Netzes beschränkt, wo sie zur Vernetzung der kritischen Geschäftsbereiche
oder zur Überbrückung größerer Distanzen im Campusbereich diente. Jetzt ist die Glasfaser auch zum
Übertragungsmedium der Wahl an der Pulsader eines Unternehmens geworden – dem Rechenzentrum.

In den meisten Unternehmen und Organisationen unterliegt das Rechenzentrum einem tief greifenden
technischen und politischen Wandlungsprozess, unabhängig davon, ob es sich direkt im Unternehmen
befindet, ihm angegliedert ist oder vollständig ausgelagert. Einstmals Geräteraum der IT-Abteilung
ist das Rechenzentrum nun bis zur Chefetage vorgerückt. Technische Neuerungen wie
Multi-Core-Prozessoren und Virtualisierung zusammen mit schnellerer optischer Übertragung treiben
die Entwicklung einer neuen Generation von Rechenzentren voran, die energieeffizienter arbeitet,
Ressourcen besser nutzt, im Betrieb weniger kostet und die Service-Bereitstellung für Unternehmen
verbessert. Unterbrechungsfreier Service und ständige Verfügbarkeit rücken in den Fokus.

Die derzeit gebräuchlichste optische Übertragungsvariante in Rechenzentren ist 10GBASE-SR, die
Datenraten von 10 GBit/s über verschiedene Distanzen unterstützt, abhängig davon, welche
Glasfaserkategorie verlegt wurde. Bei Verwendung von Multimode-Fasern OM1 ist die Streckenlänge auf
28 m begrenzt. Mit laseroptimierten OM3-Fasern erhöht sich die erreichbare Link-Länge dagegen auf
300 m; und diese unterstützen auch mühelos die geplanten 40- und 100-Gigabit-Ethernet-Standards, an
der die IEEE gegenwärtig arbeitet.

Da die Anforderungen an Prozessor- und Speicherleistung unaufhörlich steigen, ist eine
schnellere Verbindung zwischen den Geräten im Rechenzentrum zu einem kritischen Faktor geworden.
Die gängige Praxis ist, einfach mehrere 10-Gig-Ethernet-Übertragungskanäle zu bündeln. Doch dies
hat seinen Preis – spürbar im Geldbeutel und in der Geschwindigkeit. Zur Unterstützung der
gebündelten Verbindungen werden zusätzliche Transceiver benötigt – ob beim Server oder
Speicher – zusätzliche Netzwerk-Ports, und ein erheblich größerer Teil der Netzwerkinfrastruktur
wird dadurch in Anspruch genommen. Zudem sind die aggregierten Ports an sich nicht synchron. Daraus
resultieren weitere Probleme und Beschränkungen sowie eine langsamere Verbindung.

Zur Lösung arbeitet die Branche an einer Protokollerweiterung zum bestehenden Ethernet-Standard
802.3, um Datenraten von 40 GBit/s und 100 GBit/s zu unterstützen und damit einerseits erheblich
mehr Bandbreite zur Verfügung zu stellen und andererseits weiter mit der breiten Palette an
installierten Ethernet-Komponenten kompatibel zu bleiben. Seit zwei Jahren beschäftigen sich die
Normungsgremien mit dieser Problematik. Die Verabschiedung des Standards für 40GbE und 100GbE wird
für die nahe Zukunft erwartet. Lösungsansätze bei der Hardware sind bereits vereinzelt auf dem
Markt erhältlich. Anwender können sich auf diese Weise mit der neuen Technik vertraut machen und
entscheiden, inwieweit sie diese in ihre Geschäftsstrategie aufnehmen.

Die 40GbE-Spezifikation ist auf High-Performance Computing (HPC) und Speichergeräte ausgerichtet
und wird sich sehr gut für die Rechenzentrumsumgebung eignen. Sie unterstützt Server,
Hochleistungs-Cluster, Blade-Server wie auch Speichernetzwerke (SAN). Die 100GbE-Spezifikation ist
auf Core-Netzwerkapplikationen fokussiert – Switching, Routing, Zusammenschalten von Rechenzentren,
Internet Exchanges (Internet-Knoten) und Peering Points (PP) der Service-Provider. Leistungsstarke
Rechnerumgebungen mit bandbreitenintensiven Applikationen wie Video-on-Demand (VoD) werden von der
100GbE-Technik profitieren. Da die Übertragungsstrecken in Rechenzentren typischerweise 100 m nicht
überschreiten, werden die 40GbE- und 100GbE-Komponenten erheblich preiswerter sein als OS1- und
OS2-Singlemode-Komponenten und die Leistung dennoch spürbar verbessern.

Im Unterschied zu manch vorangegangenem Geschwindigkeits-Upgrade, bei dem neuere optische
Transceiver-Techniken, WDM (Wavelength Division Multiplexing) und Glasfasern mit höherer Bandbreite
zum Einsatz kamen, wird der Sprung zu 40GbE und 100GbE durch ein Aufsetzen vorhandener photonischer
Technik auf ein einzelnes Stecker-Interface umgesetzt, mit mehreren Paaren von Transceivern. Diese
neue Schnittstelle, bekannt als Multi-Fiber-Push-On (MPO), präsentiert eine Anordnung von
Glasfasern – bis zu zwölf pro Reihe und bis zu zwei Reihen pro Ferrule (24-fasrig) – als einen
einzelnen Steckverbinder.

40GbE zu realisieren ist relativ einfach, wo vier Glasfaserpaare mit einem einzigen Transceiver
mit MPO-Interface genutzt werden. Weitaus schwieriger ist die Umsetzung von 100GbE, wo schon zehn
Glasfaserpaare zum Einsatz kommen und es eine Reihe von Möglichkeiten der Faserzuordnung am
MPO-Interface gibt – bis hin zu dem zweireihigen, 24-fasrigen MPO-Stecker.

Die nächste große Herausforderung für die Kabelhersteller ist die unterschiedliche Laufzeit der
Signale (Delay Skew). Ein einzelner Transceiver für vier Fasern muss vier Signale trennen und
wieder zusammenführen. Diese Signale sind synchronisiert. Jeder Versatz zwischen dem Eintreffen des
ersten Signals und des letzten Signals beeinträchtigt den Durchsatz insgesamt, da die Signale erst
dann wieder gebündelt werden können, wenn sie alle angekommen sind. Der Signallaufzeitunterschied,
der in der Vergangenheit bei seriellen Geräten eine untergeordnete Rolle spielte, ist jetzt zu
einem zentralen Aspekt geworden. Sorgfältig ausgearbeitete Spezifikationen und eine Herstellung mit
engsten Toleranzen sind nötig, um die Konformität dieser leistungsfähigen Kabel zu sichern. Dem
Kabelhersteller bleibt es überlassen, auf welche Weise er mit der Konstruktion seiner Kabel
Normkonformität erreicht. Dazu zählen die Verwendung von Bändchenfasertechnik und zunehmend auch
wieder traditionell hergestellte Glasfaserkabel. Sind die Delay-Skew-Anforderungen erfüllt, ist die
Kabelkonstruktion für die optische Übertragung nicht ausschlaggebend. Traditionelle Kabel können
Vorteile in Bezug auf Festigkeit und Flexibilität bieten und dennoch eine hohe Faserdichte
haben – bis zu 144 Fasern in einem Kabel mit 15 mm Durchmesser. Bei vielen großen
Rechenzentren, die bereits Zehntausende Glasfaser-Links unterstützen, besteht Bedarf an diesen
schnelleren Lösungen mit extrem hoher Dichte, die sich gut managen lassen und auf einen höheren
Bandbreitenbedarf skalierbar sind.

Ein weiterer wichtiger Faktor ist die Beibehaltung der korrekten Faserzuordnung (Polarität),
ganz unabhängig davon, ob die Glasfaserinstallation auf herkömmliche Weise vor Ort erfolgt oder mit
vorkonfektionierten Plug-and-Play-Komponenten. Der sendende Port an einem Ende des Channels muss
mit dem Empfangs-Port am anderen Ende verbunden sein – eine eigentlich selbstverständliche
Angelegenheit. Doch bei den älteren Singlemode-Simplex-ST- und FC-Steckverbindern konnte es leicht
zur Verwechslung kommen. Damals reichte es meist aus, einfach die Verbindung an einem Ende zu
tauschen, wenn kein Link zustande kam.

Mit der Verbreitung der Mehrfaserstecker wie MPO und MT-RJ ist ein einfaches Umdrehen des
Steckers keine gute Idee mehr. Die Anordnung der zwölf Fasern in der Ferrule erfolgt bereits im
Werk, ist Bestandteil des Kundenauftrags und muss in die Infrastrukturplanung einbezogen werden.
Bei den Mehrfaserstecksystemen gibt es unterschiedliche Optionen der Faserzuordnung. Diese sind
Teil der verschiedenen Verkabelungsstandards und in der Belegungsliste dokumentiert. Wichtig zu
wissen ist, dass bei zwei der gelisteten Polaritätsvarianten die Zuordnung der Komponenten am Ende
des Übertragungskanals voneinander abweicht, wodurch es bei Umsteckungen leicht zu Problemen kommen
kann, wenn nicht sorgsam darauf geachtet wurde, dass die Glasfaserkomponenten entsprechend
Vorschrift installiert wurden. Die Vorteile eines Plug-and-Play-Glasfasersystems mit seiner
einfacheren Verlegung können wieder zunichte gemacht werden, wenn die Instruktionen des Herstellers
nicht genauestens beachtet sind.

Daher ist es beim Aufbau einer Glasfaserinfrastruktur wichtig, dass die Montage der
Glasfaserkomponenten vom Fachmann vorgenommen wird, der Kenntnis von den Anforderungen des
Unternehmens und der Leistungsfähigkeit der empfohlenen Infrastruktur hat. Nur eine saubere
Installation bringt die erhofften Kosten- und Leistungsvorteile, sichert unterbrechungsfreien
Service und ständige Verfügbarkeit.

transfer


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+