Verschiedene Faktoren haben die Entwicklung der Datenverkabelung in Rechenzentren im letzten Jahrzehnt beeinflusst. Ein Blick auf alle wichtigen aktuellen Fakten lohnt sich in jedem Fall - unter anderem, um zu erkennen, was die nahe Zukunft bringt.
Durch die immer weiter fortschreitende Digitalisierung und den stetig wachsenden Informationsbedarf in der Industrie sowie im Privaten sind Rechenzentren aus der heutigen Gesellschaft nicht mehr wegzudenken. Alltäglich verwendete Dienste wie E-Mail, VoIP (Voice over IP), Video-on-Demand, Google, Whatsapp und Facebook basieren allesamt auf einer Verbindung zum Internet und werden von Höchstleistungsrechenzentren gesteuert. Doch welches Ausmaß das Betreiben dieser Dienste - und damit auch der Rechenzentren - angenommen hat, dürfte den Wenigsten bekannt sein.
Schaut man zum Beispiel auf Frankfurt am Main, denken sogar Insider zunächst an Begriffe wie "Finanzmetropole" oder "Luftfahrtdrehkreuz". Dass sich dort jedoch einer der weltweit wichtigsten Internet-Knoten befindet, zählt außerhalb der Telekommunikationsbranche sicher nicht zum Allgemeinwissen. 20 Prozent des Gesamtstromverbrauchs der Metropole gehen allein in die dort ansässigen Rechenzentren. Dafür bilden dann Datendurchsätze von über 5 TBit/s zu Spitzenzeiten im Internet-Knoten DE-CIX das Rückgrat des Internets in und durch Europa. Klar dürfte zudem sein, dass diese Datenraten keinesfalls stagnieren, sondern - die vergangenen Jahre betrachtet - jährlich um etwa 20 Prozent steigen.
Dadurch steigen jedoch auch die Ansprüche an die Schnittstellen, mit denen die Daten nicht nur zum Verbraucher, sondern vor allem im Rechenzentrum zu übertragen sind. 10 GBit/s sind dabei lange schon nichts Besonderes mehr. Moderne Multifasersteckverbindern wie der MPO erreichen so über eine Bündelung mehrerer Glasfasern heute schon Übertragungsraten von 100 GBit/s und mehr.
Doch galten anfangs an dieser Stelle noch andere Argumente. Bis zum Jahr 2008 ist in Deutschland ein klarer Trend des Stromverbrauchs von Rechenzentren zu erkennen. Der Bitkom-Verband hat regelmäßig Studien um Rechenzentren in Deutschland durchgeführt und speziell auch den Stromverbrauch betrachtet. Bis 2008 war hier eine lineare Zunahme von etwa 0,7 TWh/Jahr zu verzeichnen. Im Jahr 2008 begann jedoch der Stromverbrauch von Rechenzentren nicht nur zu stagnieren, sondern sogar leicht zurückzugehen. Dafür gab es mehrere Gründe. Den größten Einfluss nahm dabei die Finanzkrise mit ihrem Höhepunkt in der Pleite der US-amerikanischen Bank Lehman Brothers. Dies führte nicht nur in Deutschland zu einem wirtschaftlichen Stillstand. Unternehmen setzten geplante Investitionen wurden aus, und somit entstanden auch keine neuen Rechenzentren mehr. Doch etablierten sich gleichzeitig auch Mehrkernprozessoren in der ITK- Branche, und auch Virtualisierung wurde immer mehr zur gängigen Praxis. Zudem hat der europäische Rat im Jahr 2010 das von der EU geforderte Klima- und Energiepaket "20/20/20" bestätigt. Dieses fordert bis ins Jahr 2020 eine europaweite Reduzierung der Treibhausgasemissionen um 20 Prozent, einen Anteil von erneuerbaren Energien von 20 Prozent und 20 Prozent mehr Energieeffizienz.
In den folgenden Jahren resultierten diese Einflüsse auf die Rechenzentren in Deutschland in einem stetig sinkenden Energieverbrauch. Dabei ist zu beachten, dass gleichzeitig die Leistungsfähigkeit der Rechenzentren stetig zugenommen hat.
Dieses Szenario heißt in der ITK- Branche gemeinhin "Green IT". Ziel von Green IT ist es, dass das Design, die Herstellung und der Nutzen von Computern, Servern, Bildschirmen, Druckern, Speichermedien und Netzwerk- und Kommunikationsanlagen effizient und effektiv mit geringem oder gar keinem Einfluss auf die Umwelt geschehen soll. Green IT bezeichnet dabei den Einsatz von energieeffizienter Hardware und energiesparender Software sowie energiesparende Konstruktionen von Rechenzentren und deren Infrastruktur.
Die eigentlichen Beweggründe, um Green IT umzusetzen, sind dabei aber keineswegs ein ausgeprägtes Umweltengagement der Rechenzentrumsbetreiber. Green IT bedeutet zunächst schlicht Energieeffizienz. Dies bedeutet mehr Leistung durch geringeren Verbrauch. Eine Studie der IDC im Jahr 2008 zeigt klar, dass schon zu Beginn von Green IT der Begriff kein umweltbewusstes Denken darstellt, sondern den Betrieb der eigenen IT effizienter werden sollte. Green IT hat also weder im Jahr 2008 noch heute darauf angespielt, besonders umweltschonende, CO2-sparende oder gar biologisch abbaubare Hardwarekomponenten hervorzubringen. Green IT ist mit Blick auf den Energieverbrauch schlichtweg wirtschaftlicher.
Und darum dreht sich alles: Wirtschaftlichkeit. Rechenzentren erreichen dies grob auf zwei verschiedene Weisen, mit Energieeffizienz und Packungsdichte, wobei bei der Energieeffizienz an dieser Stelle die softwareseitige Energieeffizienz außer Acht gelassen werden soll. Folglich ist immer mehr auf einen effizienten Einsatz der Infrastruktur zu achten. Betreiber halten die Temperaturen in Rechenzentren höher, die Verteilung der Kaltluftströme ist heute genauer, und Schrankreihen sind eingehaust, um weniger Energie zu verbrauchen. Außerdem sind USVs modular und intelligent aufgebaut, um den optimalen Wirkungsgrad auf die aktuell benötigte Energie zu erreichen.
Aktuellere, leistungsfähigere und Strom sparende Hardware ist in diese Betrachtung natürlich ebenfalls eingeschlossen. Dies ist Wirtschaftlichkeit. Diese hört aber nicht bei den Komponenten auf. Rechenräume sind heute mehr auf die eigentlichen Bedürfnisse angepasst. Denn die Unterhaltungskosten für jeden Quadratmeter Rechenraum sind erheblich. Dabei kommt die Packungsdichte ins Spiel: Denn Wirtschaftlichkeit ist auch erreicht, wenn weniger Platz für mehr Leistung nötig ist.
Hinter all den heute vorhandenen großen und kleinen Cloud-Diensten stehen stets Rechenzentren, die Nutzeranfragen erhalten, bearbeiten und beantworten müssen. Rechenzentren sind in den letzten zehn Jahren in diesem Sinn näher denn je an den Endverbraucher gerückt - auch dies kaum jemand direkt bemerkt. Auch das Aufkommen von Smartphones und Tablets hat die Bedeutung der Rechenzentren erhöht: Kaum eine App kommt noch ohne benötigte Internet-Verbindung aus. Viele Dienste beziehen ihren eigentlichen Content sogar direkt aus der Cloud. Dies alles benötigt Bandbreite. Bandbreite, die nicht nur über Land und in Städten und Gemeinden zur Verfügung stehen muss, sondern auch in den vorhandenen und neu zu erbauenden Rechenzentren.
Dabei geht es um Bandbreite, die frühere Steckverbinder wie der kupferbasierende RJ45 nicht mehr leisten konnten. Mit dem einhergehenden Preisverfall von Glasfaserverbindungen sind heute in einem modernen Rechenzentrum kaum mehr Kupferleitungen zur Datenübertragung vorhanden - sofern das Rechenzentrum nicht gleichzeitig als Backbone für ein Client-Netzwerk fungiert. Der RJ45 ist nicht nur mit seinen 10 GBit/s (40 GBit/s bei Kategorie 8 - aber auf nur 30 Meter) den möglichen Datenraten von Glasfasersteckverbindern wie einem MPO mit 100 GBit/s unterlegen, auch beim Platzbedarf erreicht ein Glasfaserkabel mit 24 Fasern problemlos den Durchmesser einer einzelnen Kategorie7A-Leitung.
Kombiniert mit dem erhöhten Platzbedarf einer geschirmten RJ45-Buchse im Patch-Feld verändert sich dieses Verhältnis nochmals zu Gunsten der LWL-Steckverbinders. Ein heutiges Hochleistungs-RJ45-Patchfeld erreicht eine Packungsdichte von bis zu 48 Buchsen pro Höheneinheit. Lösungen mit 72 LC-D Ports pro Höheneinheit sind dabei noch nicht einmal am Extremwert der Packungsdichte angekommen.
Mit höherer Packungsdichte gestaltet sich das Verwalten der angeschlossenen Patch-Kabel an einem Patch-Feld allerdings immer schwieriger, und zwar nicht nur das Patchen an sich. Auch das Auffinden der richtigen Leitung stellt dann ein Problem dar. Bei 144 frontal abgehenden Glasfasern und Kabeln (72 Kabel, sofern Uniboot-Patch-Kabel zum Einsatz kommen) ist vom Patch-Feld dahinter nichts mehr zu erkennen, von einer Port-Kennzeichnung erst recht nichts. Auch aus diesem Grund halten sogenannte Patch-Management-Systeme vermehrt Einzug in Rechenzentren. Sie protokollieren nicht nur sämtliche Patchungen - und bieten damit zusätzliche Sicherheit, sie können auch nötige Patchungen per Lichtsignal direkt am Port darstellen.
Multifaser-Steckverbinder wie der MPO bieten sogar weitere Features. Sie vereinen mehrere Glasfasern in einem Steckverbinder. Das Grunddesign beherbergt dabei zwölf Glasfasern, und zwar horizontal angeordnet beim gleichen Einbauausschnitt wie ein LC-D mit zwei Glasfasern. Die Idee besteht darin, durch Aufsplitten des Signals in mehrere Teile eine höhere Bandbreite zu erreichen. Dasselbe Prinzip verwendet seit jeher der RJ45 in der Kupfertechnik, wo Daten über acht einzelne Drähte laufen (früher vier Drähte bei Bandbreiten bis 100 MBit/s).
Der Vorteil besteht dabei in dem erheblichen Potenzial, das der MPO aufweist. Zum einen verwenden die Systeme bisher für direkte Verbindungen nur acht der zwölf vorhandenen Glasfasern (vier zum Senden, vier zum Empfangen), zum anderen gibt es auch noch weitere Designs, die mehrere Reihen von je zwölf Glasfasern vorsehen. Normentwürfe sehen dazu auch schon die Verwendung des MPO-Steckers für Singlemode-Anwendungen vor, was Transferraten von bis zu 400 GBit/s bedeuten würde.
Hohe Übertragungsraten per Singlemode über eine Glasfaser kommen dadurch zustande, dass die Systeme mehrere Wellenlängen simultan übertragen können. Doch Wavelength Division Multiplexing (WDM) ist nicht länger Singlemode-Leitungen vorbehalten. Bisher noch nicht normativ verabschiedet, gibt es dennoch bereits erste Transceiver, die über eine Multimode-Faser mehrere Wellenlängen gleichzeitig übertragen.
Aktuell sind 25 GBit/s mit einem normalen LC-D bereits machbar. Durch WDM würde sich dies auf 100 GBit/s erhöhen, und zwar zu einem vielfach günstigeren Preis als mit MPO. Voraussetzung ist, dass die aktiven Komponenten im Verhältnis nicht erheblich teurer werden als heute. Was die Fasergüte angeht, ist heute im Multimode-Bereich OM4 der hochwertigste normierte Standard. Faserhersteller bieten allerdings heute schon verbesserte OM4-Fasern an, die sie auch schon in Richtung WDM optimieren. Daher ist abzusehen, dass daraus demnächst ein OM5-Standard resultiert.
Noch etwas weiter am Horizont ist auch bereits ein neuer Steckertyp zu erkennen. Mitentwickelt von Intel erschien im Jahr 2014 erstmals der Linsenstecker MXC. Er ist für bis zu 64 Fasern geeignet und basiert seit langer Zeit erstmals wieder auf einer Linsentechnik an der Stirnfläche. Das ankommende Lichtsignal ist dabei an der Stirnfläche verbreitert, um so eine höhere Präzision zu garantieren. Dies würde dem MXC gegenüber dem MPO einen erheblichen Vorteil verschaffen - liegen dort die größten Probleme in der Fertigung bekanntlich in der einzuhaltenden Genauigkeit der konfektionierten Glasfasern.