Die Forschung für Geschwindigkeiten von 40 GBit/s und 100 GBit/s beschäftigt sich unter anderem mit seriellen WDM-Systemen (Wavelength Division Multiplexing) für Singlemode-Glasfaserkanäle bei hoher Reichweite. Ein wichtiger Parameter ist der Laufzeitunterschied, im Fachjargon Skew genannt.
Um den Einsatz einer geswitchten 10GBase-S-Ethernet-Infrastruktur zu unterstützen, entwickelt das Standardisierungsgremium des Institute of Electrical and Electronics Engineers (IEEE) aktiv die nächste Generation des Ethernet-Standards, und zwar für 40/100 Gigabit Ethernet (GbE) Physical Layer Devices (PHY) und die entsprechenden Physical Media Dependent (PMD) Sub-Layer. Die Ratifizierung des Standards ist für Mitte bis Ende 2010 geplant und soll zwei verschiedene Datenraten für die Netzwerke der nächsten Generation unterstützen:
40GbE für Server, High Performance Computing Cluster (HPC), Blade-Server, Storage Area Networks (SAN), Network-Attached-Storage-Systeme (NAS).
100GbE für Core Network Switching, Routing, Aggregation in Rechenzentren, Internetübergabe- und Service-Provider-Peering-Punkte für Anwendungen mit großer Bandbreite. Dies ist zum Beispiel Video on Demand.
Der folgende Text diskutiert die Parameter, die die Leistung von Multimode-Glasfasern bei hohen Datenraten beeinflussen, und bringt diese Parameter in Beziehung zur gemessenen Channel-Leistung.
Der neue Ethernet-Standard (vorgesehen 802.3ba) wird sowohl Singlemode-Glasfasern (SMF) als auch Multimode-Glasfasern (MMF) definieren, um die in der Tabelle auf dieser Seite aufgelisteten minimalen Reichweitenziele zu unterstützen. Die Experten gehen davon aus, dass im Bereich HPC 100 Prozent der Access-to-Client-Kanäle, fast 90 Prozent der Distribution-to-Access-Kanäle und nahezu 85 Prozent der Core-to-Distribution-Verbindungen bis zu einer Reichweite von 100 Metern mit MMF unterstützt werden können [1]. Weiter nehmen sie an, dass solche PHYs am weitesten verbreitet sein werden, die 100 Meter Reichweite unterstützen, und zwar zusammen mit Singlemode-Lösungen für Entfernungen von 10 km und 40 km für Core-Netzwerke mit großer Reichweite.
Um eine volle Abdeckung innerhalb eines Rechenzentrums sicherzustellen, erhöhen die Fachleute das Ziel für die ursprüngliche MMF-Kanalreichweite wahrscheinlich noch einmal, vermutlich auf 150 m über laseroptimierte OM3-Faser mit einer minimalen effektiven modalen Bandbreite (EMB) von 2000 MHz*km und auf 250 m über eine verbesserte MMF mit einer minimalen EMB von 4700 MHz*km. Diese MMF mit hoher Bandbreite heißen auch OM4 und sind noch durch die TIA 42 zu spezifizieren.
Singlemode- und Multimode-Lösungen werden unterschiedliche optische Techniken verwenden. Für operative Reichweiten von 10 km und 40 km ist eine Übertragung mittels WDM (Wavelength Division Multiplexing) über SMF spezifiziert. Bild 1 zeigt die WDM-Architektur für eine 100GbE-SMF-Verbindung. Um die elektrischen Anforderungen zu minimieren, wird die Schnittstelle zum optischen Transceiver aus je zehn parallelen Spuren für Senden und Empfang bestehen, die jeweils mit 10 GBit/s arbeiten. Am Sender sind die zehn 10GBit/s-Spuren auf vier serielle 25GBit/s-Spuren aufgeteilt, die wiederum vier einzelne Externally Modulated Laser (EMLs) treiben. Jeder dieser Laser ist auf eine diskrete Wellenlänge im 1310nm-Fenster (1294 nm bis 1310 nm) eingestellt, die einen Abstand von etwa 4,5 nm haben. Die vier Wellenlängen koppelt ein spezielles WDM-Gerät in eine einzelne SMF ein (Multiplexing).
Die Wellenlängen breiten sich unabhängig und parallel aus, woraus sich eine kumulierte Datenrate von 100 GBit/s ergibt. Am anderen Ende werden die vier Wellenlängen "entmultiplext", an die Detektoren verteilt und durch so genannte Transimpedance Amplifiers (TIAs) im optischen Empfänger verstärkt. Die vier 25GBit/s-Spuren teilt das System dann wieder zurück auf 10GBit/sSpuren auf.
Um eine optimale Channel-Leistung zu erreichen, müssen die Dispersion und die Dämpfung der Faser über den gesamten Spektralbereich der Wellenlängen des Lasers minimiert sein. Standard-Singlemode-Glasfasern (wie in ITU-T G.652A und B spezifiziert) haben bei einer Wellenlänge von etwa 1310 nm keine Dispersion und minimieren daher die chromatische Dispersion. Voraussichtlich werden LC-Verbinder zum Einsatz kommen, um den Formfaktor des Transceivers zu minimieren. Die WDM-Technik ist in der Telekommunikationsbranche bestens bekannt, Service-Provider setzen sie seit vielen Jahren ein.
Für MMF-Anwendungen erweist sich die WDM-Technik allerdings als nicht besonders kosteneffektiv. Daher setzt man dort eine alternative Übertragungsmethode ein, die als Paralleloptik bekannt ist (Bild 2). Für eine 100GBit/s-Strecke überträgt ein Array von zehn preisgünstigen VCSELs (Vertical Cavity Surface Emitting Laser) die Daten simultan über zehn separate Multimode-Fasern, wobei jede Faser 10 GBit/s oder ein Zehntel des Datenverkehrs übernimmt. Der optische Knotenpunkt setzt Zwölf- oder 24-Faser-MPO-Verbindungstechnik in Kleinst-Transceivern ein. Diese Transceiver sollen auf vorhandener 10GBase-S-Technik basieren, die für 300m-Übertragungssysteme ausgelegt ist. Alle Laser arbeiten auf der gleichen spezifizierten Wellenlänge, die spektralen Eigenschaften sind jedoch gegenüber 10GBase-S abgeschwächt, um die Kosteneffizienz zu erhöhen. Am Empfänger erkennt ein PIN-Photodetektor das Signal, das dann TIAs verstärken. Abschließend erfolgt eine elektronische Resynchronisation der Daten und ein Zusammenfassen zu Paketen.
Um die MMF-Leistung bei Geschwindigkeiten von 40 und 100 GBit/s charakterisieren zu können, sind bestimmte wichtige Leistungsparameter zu verstehen und in der Systemauslegung zu berücksichtigen. Da der Verkehr über parallele Spuren von vier oder zehn diskreten Fasern (mit jeweils 40 beziehungsweise 100 GBit/s) läuft, müssen die Differenzen in der Bittransportzeit über die einzelnen Fasern auf einem Minimum gehalten werden, um sicherzustellen, dass sich die Daten im Empfänger resynchronisieren lassen.
Im Idealfall kommen Bits, die parallel über eine Anordnung von Bändchenfasern übertragen werden, zur gleichen Zeit an den Empfängern an. Der Unterschied zwischen der Ankunftszeit des schnellsten und des langsamsten Bits in einer Mehrspurverbindung heißt im Fachjargon "Skew" (Bitversatz). Ein höherer Bitversatz erfordert mehr elektronische Kompensation, um diesen Bitversatz zu korrigieren, was zu einer höheren Verlustleistung und größerer Latenzzeit führt. Der gesamte Bitversatz im Channel ist durch die chromatische und modale Dispersion, Differenzen in der Faserlänge sowie Abweichungen im Brechnungsindex beeinflusst, die wiederum durch Herstellungstoleranzen oder Belastung einzelner Fasern verursacht sein können.
Chromatische Dispersion: Wenn sich Licht verschiedener Wellenlängen in einem Material ausbreitet, dann geschieht dies mit unterschiedlichen Geschwindigkeiten. Vertical Cavity Surface Emitting Laser, die für Multimode-Fasern verwendet werden, arbeiten in einem begrenzten Spektrum und daraus resultierend mit einem Lichtimpuls, dessen spektraler Inhalt gestreut ist. Chromatische Dispersion beschreibt diese Ausweitung der Pulsbreite mit dem unerwünschten Effekt, die Signalqualität zu verringern und damit die Link-Leistung herabzusetzen.
Modendispersion: Verschiedene Moden durchlaufen verschiedene optische Pfade in Multimodefasern und rufen durch die unterschiedlichen Laufzeiten eine Impulsverbreiterung hervor. Der Parameter, der die durch Modendispersion ausgedrückte Verzögerung verursacht, heißt auch Differential Mode Delay (DMD). Aus DMD-Messungen kann man die Effektive Modale Bandbreite (EMBc) der Faser berechnen, und zwar gemessen in MHz*km.
Impulsverzögerung: Die Geschwindigkeit des Lichts ist durch den Brechungsindex des Mediums bestimmt.
Physische Beanspruchung während des Herstellungsprozesses, des Verkabelungsprozesses oder während der Installation kann zu faserspezifisch verschiedenen Brechungsindizes führen, die bewirken, dass die Bits zu verschiedenen Zeiten im Empfänger ankommen. Zusätzlich führt jede Abweichung der einzelnen Faserlängen zu großen Differenzen bei den Laufzeiten der Bits.
Einige dieser Parameter sind inhärente Eigenschaften optischer Fasern und entstehen während des Herstellungsprozesses. Je besser der Herstellungsprozess für die Fasern ist und je gründlicher die Kontrolle der Prozessparameter durchgeführt wird, desto höher ist die Qualität und desto einheitlicher sind die optischen Fasern.
Damit eine Faser als OM3 klassifiziert werden kann, muss die DMD-Messung eine der sechs DMD-Maskenschablonen einhalten, die in TIA-455-220-A und IEC 60793-1-49 spezifiziert sind. Eine Auflistung findet sich in Tabelle 2. Wenn in Schablone 1 das gemessene DMD kleiner oder gleich 0,23 ps/m im radialen Kernbereich zwischen 5 und 18 µm vom Kernzentrum (innere Maske) ist, dann muss das DMD über den gesamten Kern (äußere Maske 0 – 23 µm Radius) kleiner oder gleich 0,70 ps/m betragen. Wenn die Faser ein größeres DMD in der inneren Maske hat, ist die Anforderung an die äußere Maske strenger. Wenn die Faser eine dieser sechs Schablonen einhält oder übertrifft, lässt sie sich als OM3 klassifizieren, vorausgesetzt, dass sie zusätzlich andere Anforderungen einhält. Dazu gehören Overfill Launch(OFL)-Bandbreite und mechanische Spezifikationen.
Aus den DMD-Messdaten kann man die Bandbreite der Faser errechnen, ausgedrückt durch die Calculated Effective Modal Bandwidth (EMBc). Laseroptimierte OM3-MMF müssen eine Effective Modal Bandwidth (EMB) von mindestens 2000 MHz*km haben. Ähnlich wird eine verbesserte OM3-Faser (zum Beispiel die vorgeschlagene OM4) dadurch definiert, dass sie ein EMB von mindestens 4700 MHz*km hat. Die EMB einer Faser ist spezifiziert als 1,13 x EMBc [2].
Unter Verwendung eines hochauflösenden DMD-Messsystems hat das Forschungsteam von Panduit die Modendispersion in MMF von mehreren Lieferanten analysiert. Durch eine Modifizierung des Testsystems waren die Wissenschaftler nach eigenen Angaben in der Lage, die Messmöglichkeiten auszuweiten und so auch die chromatische Dispersion und die Impulsverzögerung in Bändchenfasern zu ermitteln. Diese Tests führen zu einer direkten Berechnung des Bitversatzes. In der Folge lassen sich die optimalen Anforderungen bestimmen, um eine hohe Leistung für zukünftige 40/100GbE-Kanäle zu garantieren.
Ein Resultat der Panduit-Tests war, dass einige handelsübliche DMD-Messsysteme die Faserbandbreite nicht ausreichend exakt charakterisieren [3,4]. In Bild 3 ist die Bit-Error-Rate (BER) für zwölf Fasern in einem OM3-Bändchenfaserkabel dargestellt, einem typischen Kabeltyp, den man bei Installationen in Rechenzentren findet. Die BER ist das Verhältnis der gemessenen Fehlerbits zur Gesamtzahl der Bits, die über einen bestimmten Zeitraum übermittelt werden. Der grüne Bereich repräsentiert eine gute, der gelbe Bereich eine akzeptable OM3-Leistung. Die horizontale x-Achse zeigt die empfangene optische Leistung (in dBm) und die vertikale y-Achse die BER.
Geht die optische Leistung zurück (Bewegung von rechts nach links auf der x-Achse), erhöht sich die BER oder die Anzahl der Fehlerbits. Für 10GbE ist die BER Anforderung 10-12 für eine Empfangsleistung von -9,9 dBm oder niedriger. Das verwendete System bildet Worst-Case-Bedingungen nach, mit dem Ziel einer akzeptablen BER-Leistung von 10-10 für optische Leistungen oberhalb von -9,9 dBm.
Eine nähere Analyse der Daten dieses Musterkabels zeigt, dass zwei der zwölf Fasern die BER-Testspezifikation für 10GbE-Systeme nicht eingehalten haben. Eine weitergehende DMD-Analyse kam zu dem Schluss, dass die zwei durchgefallenen Fasern keine OM3-Fasern waren, was mit den BER-Resultaten übereinstimmt. Die Faserbandbreiten für dieses Kabel sind in Tabelle 3 aufgelistet. Damit stellte sich heraus, dass das Testequipment des Lieferanten, das zur Charakterisierung dieses Kabels verwendet wurde, fehlerhafte DMD-Messungen geliefert haben musste.
Da sich die Wellenlänge der Panduit-eigenen DMD-Testausrüstung verändern lässt, können die Techniker die Impulsverzögerung als Funktion der Wellenlänge messen. Für die Faser lassen sich aus diesen Daten die chromatische Dispersion, die Modendispersion und aus dem Vergleich mit anderen Fasern der gesamten Bitversatz berechnen. Bild 4 zeigt die Impulsverzögerung für einen Mode bei vier verschiedenen Wellenlängen. Durch Einfügen der Daten in eine Formel, die in TIA-455-168A [5] spezifiziert ist, lässt sich daraus die Dispersionsneigung S0 und die so genannte Null-Dispersionswellenlänge l0 für die getestete Faser berechnen.
Unter Verwendung der eingefügten Parameter haben die Techniker die Dispersionsneigung und den chromatischen Dispersionskoeffizienten für eine ausgewählte repräsentative Faser berechnet. Der chromatische Dispersionskoeffizient, D(l), (gezeigt in Einheiten von ps/km*nm) ist in Bild 5 dargestellt.
Mit dem erhaltenen chromatischen Dispersionskoeffizienten ist es möglich, die chromatische Dispersion für einen VCSEL zu berechnen. Das Panduit-Team nahm an, dass der VCSEL eine mittlere Wellenlänge von 850 nm und eine maximale Spektrumsbreite von 0,65 nm hat - wie für 100GbE (100GBase-SR10) vorgeschlagen. Die berechnete chromatische Dispersion beträgt 0,061 ps/m.
Kurven der chromatischen und der Modendispersion für zwei Musterglasfasern stellt Bild 6 dar. Die chromatischen Dispersionskurven zeigen die Streuung, die das Signal erfährt, wenn es sich für zwei verschiedene VCSEL-Spektrumsbreiten durch die Faser ausbreitet.
Die untere Kurve (lila) gilt für eine maximale Spektrumsbreite von 0,45 nm wie sie im 10GBase-S-Standard spezifiziert ist. Die gelbe Kurve repräsentiert die auf 0,65 nm erweiterte Spektrumsbreite, wie für 100 GbE vorgeschlagen. Man erkennt, dass die chromatische Dispersion im 850nm-Wellenlängenfenster weniger als 0,07 ps/m beträgt, und dass - daraus resultierend - dieser physikalische Effekt wenig zum Bitversatz beiträgt.
Für die Modendispersion ergibt sich jedoch ein ganz anderes Resultat. Die Modendispersion variiert stark mit der Wellenlänge, und jede der beiden modalen Dispersionskurven zeigt ein Minimum. Das Minimum entspricht der optimierten Wellenlänge für diese Faser, die vom Herstellungsprozess (und damit vom Hersteller) abhängig ist. Die optimierte Wellenlänge beträgt etwa 870 nm für Faser A und rund 830 nm für Faser B, ein Versatz von +/- 20 nm zu 850 nm. Eine schlechte Kontrolle im Faserherstellungsprozess könnte die Ursache für die Abweichungen im Brechungsindexprofil des Kerns sein. Als Konsequenz ergibt sich, dass die optimierte Wellenlänge weit von der Betriebswellenlänge entfernt liegen kann, was zu großer Modendispersion führt.
Bild 7 zeigt zwei DMD-Aufzeichnungen der gleichen Faser für zwei verschiedene Laserwellenlängen, 870 nm und 830 nm. Die Aufzeichnungen zeigen die Modenausbreitungsgeschwindigkeit in ps/m als Funktion der radialen Position zum Kernmittelpunkt der Faser. In diesem Fall zeigt die Faser einen Minimum-DMD-Wert bei 870 nm. Die entsprechende DMD-Aufzeichnung belegt, dass alle Impulse, unabhängig von ihrer radialen Position am Ausgang der Faser zur gleichen Zeit ankommen. Das EMBc bei 870 nm ist 8762 MHz*km. Dies ist eine sehr hohe Bandbreite für MMF. Bei 830 nm ist zu erkennen, dass sich der Impuls nahe des Kernrands (außerhalb 15 µm der radialen Offset-Position) verschiebt und schneller ausbreitet, wodurch die DMD erhöht und die EMBc verringert wird. Dies lässt sich auf Defekte im Brechungsindex des Kerns zurückführen. Für diese Musterglasfaser ist erkennbar, dass die EMBc auf Grund der Abweichung der Wellenlänge effektiv um 50 Prozent reduziert ist.
Zusätzlich verursachen Störungen im Profil des Brechungsindexes eine Modendispersion, wie in der DMD-Aufzeichnung in Bild 8 gezeigt ist. Für Licht, das bei einer radialen Offset-Position von etwa 11 µm in die Faser eingespeist wird, beträgt die Geschwindigkeit des optischen Impulses ungefähr 0,65 ps/m. Dagegen ist die Geschwindigkeit des Impulses rund 0,50 ps/m (breitet sich schneller aus) für das Licht, das nahe des Kernzentrums eingespeist wird, was dann in einer großen Modendispersion resultiert.
Zusätzlich zu chromatischer und Modendispersion konnte das Panduit-Team auch die Durchlaufzeit für das gleiche Zwölffaserbändchenfaserkabel messen, das in Bild 3 analysiert wurde. Aus diesen Daten berechneten die Techniker die Impulsverzögerung für jede der Fasern im Kabel. In Tabelle 4 sind die gemessenen Bitverzögerungen für jede der in dieser Analyse verwendeten Fasern aufgelistet. Aus der Differenz zwischen den maximalen und minimalen Impulsverzögerungen ergibt sich die Differenzzeit, Dt = 740ps. Obwohl nicht alle Fasern die OM3-Bandbreitenanforderungen einhalten, stellte sich heraus, dass die maximale Zeitdifferenz zwischen zwei OM3-Fasern auftrat. Für Vergleichszwecke konnten die Techniker Dt durch die Kabellänge von 312 m dividieren und die aus den Differenzen des Brechungsindex herrührende Impulsverzögerung als 2,37 ps/m ausdrücken.
Mit der Ausnahme des aus der mechanischen Belastung der Faser stammenden Bitversatzes lassen sich jetzt die gemessenen Beiträge zum Bitversatz in einer Tabelle zusammenstellen (Tabelle 5). Es ist dabei zweckmäßig, jede der Zeitverzögerungen zum gesamten Bitversatz in Einheitenintervalle (Unit Intervals, UI) umzuwandeln, wobei 1UI der Zeitraum für 1 Datenbit ist. Für 10GbE ist die Signalgeschwindigkeit 10,3125 GBit/s, was einem Zeitraum von 96,97 ps für ein einzelnes Bit entspricht.
Der gesamte gemessene Bitversatz in Einheiten von UI ist
0,21 UI + 1,06 UI + 7,63 UI = 8,90 UI
Obwohl der maximal zulässige Bitversatz für 100GBase-SR10 noch zu spezifizieren ist, hat das Panduit-Team nach eigener Einschätzung gezeigt, dass es den Bitversatz für Faserverbindungen charakterisieren und die Channel-Leistung für Paralleloptiken zertifizieren kann. Darüber hinaus können die Forscher unter Verwendung dieser Messtechnik die Streuung und Gleichmäßigkeit bezüglich Dispersion und Bitversatz quantifizieren und die Unterschiede bei Faserherstellungsprozessen charakterisieren. Die Durchlaufzeit, die von der Faserbandbreite unabhängig ist, stellt den größten Beitrag zum Bitversatz dar. Kabel, die OM3-Fasern enthalten, sind kein Garant für einen niedrigen Bitversatz. Eine Zertifizierung des Bändchenfaserkabels ist notwendig, um die 100GbE-Leistung des Kabels zu garantieren.
Dieser Artikel erläutert Messtechniken für die Parameter, die für die MMF-Leistung bei hohen Datenraten entscheidend sind (Dispersion und Bitversatz). Er zeigt, wie diese Messungen verwendet werden können, um Unterschiede in der Faserqualität zu charakterisieren. Schlüssel für die Sicherstellung der Signalintegrität von Multispur-40/100GbE-Paralleloptiken ist die intensive Kontrolle des Herstellungsprozesses der Fasermedien: Je besser der Herstellungsprozess für die Faser (rohe Faser, Verarbeitung zum Band und Verkabelung) und je enger die Kontrolle der Prozessparameter ist, desto gleichmäßiger ist die optische Faser und desto besser die Qualität.
Das Panduit-Team will nach eigenem Bekunden damit fortfahren, die Herstellungsverfahren zu untersuchen, um die besten Prozesse und Techniken zu finden. Über die Forschung durch die Panduit Laboratories zu den Übertragungsfähigkeiten von Multimode-Glasfasern, der optischen Leistung und speziell zu den Möglichkeiten, Fasermedien bezüglich der Erreichung von einheitlichen Impulsverzögerungen und der Optimierung des Bitversatzes zu spezifizieren und zu testen, soll auch in weiteren Artikeln berichtet werden. Durch eine genaue Charakterisierung der Faserbandbreite, eine Zertifizierung der Systemleistung von Rohfaser und Kabelmedium bezüglich der Bitfehlerrate und durch die Erstellung von Spezifikationen für Fasermedienpartner (in Richtung Beibehaltung von Bitversatz von Spur zu Spur) sieht sich das Team in der Lage, Multimode-Fasern für 100GBit/s-Übertragung zu zertifizieren.