Rechenzentrumsbetreiber geraten immer mehr unter Druck. Zum einen müssen sie eigene Nachhaltigkeitsziele und gesetzliche Vorgaben erfüllen, zum anderen auch einen Beitrag zu den Nachhaltigkeitsambitionen ihrer Kunden leisten. Für eine Branche, die etwa ein Prozent des globalen Energieverbrauchs ausmacht, ist dies eine ernstzunehmende Herausforderung.
Vor allem Server und Kühlsysteme fressen Strom. Allein im Jahr 2020 belief sich der Stromverbrauch der deutschen Rechenzentren laut Branchenverband Bitkom auf 16 Milliarden Kilowattstunden. Dies ist mehr Strom, als die Stadt Berlin in einem Jahr verbraucht.
Erste Städte wollen dieser Entwicklung nun entgegensteuern und bringen Restriktionen zum Bau neuer Rechenzentren auf den Weg. Das Rhein-Main-Gebiet rund um Frankfurt ist aufgrund des Internetknotens DE-CIX ein begehrter Standort. Neben der Standortbeschränkung auf bestimmte Gewerbegebiete will die Stadt auch Vorgaben zur Energieeffizienz und Gebäudegestaltung umsetzen, damit sich die Rechenzentren möglichst gut in die Stadtplanung integrieren lassen. Die Bundesregierung hat zudem im Koalitionsvertrag festgehalten, dass neu eröffnete Rechenzentren bis 2027 klimaneutral sein sollen. Die Europäische Kommission will bis 2030 sogar alle Rechenzentren in Europa klimaneutral betrieben wissen.
Die Wahl des Standorts und der Einsatz von erneuerbaren Energien können dabei helfen, die Nachhaltigkeitsziele zu erreichen und die Umwelt zu entlasten. Doch auch wenn der Stromverbrauch insgesamt in die Höhe ging, waren Rechenzentrumsbetreiber und Hersteller von Netzwerkinfrastrukturlösungen nicht untätig. Die Effizienz der Infrastruktur im Rechenzentrum nahm in den vergangenen Jahren deutlich zu. Während der PUE-Wert (Power Usage Effectiveness, also die Effektivität des Stromverbrauchs) 2010 noch bei 1,98 lag, sank dieser Wert auf 1,63 im Jahr 2020. Dies entspricht einer Effizienzsteigerung von 21 Prozent. Genauso wie aktive Komponenten, also Transceiver, Switches und Co., eine messbare Auswirkung auf die Nachhaltigkeit von Rechenzentren haben können, trifft dies auf Kabel, Stecker und Module zu.
Höhere Geschwindigkeiten und mehr Rechenleistung
Es bleibt allerdings die Herausforderung, immer höhere Geschwindigkeiten zu unterstützen und mehr Rechenleistung, Speicherplatz und Datendurchsatz auf dem gleichen Platz unterzubringen und zu verdichten. Platz ist Geld, sowohl in Colocation-Rechenzentren, wo Mieter nach Fläche bezahlen, als auch für Nutzer, die an die Kapazitätsgrenzen ihrer eigenen Rechenzentren stoßen. Verdichtung hilft, den benötigten Platz und damit die Kosten zu reduzieren. Moderne Transceiver liefern immer schnellere Übertragungsgeschwindigkeiten, doch die Frage bleibt, wie man diese Lösungen möglichst nachhaltig verkabelt und zudem so, dass sie möglichst wenig (teuren) Platz in Anspruch nehmen.
Darauf gibt es zwei Antworten: Parallel Port Breakout und VSFFC (Very Small Form Factor Connectors, also sehr kleine Stecker). Port Breakout beschreibt den Einsatz von Highspeed-Transceiver-Ports für parallel-optische Übertragung in einem auf acht Fasern basierenden System (Base-8) mit Geschwindigkeiten von beispielsweise 800 GBit/s, die allerdings nicht als Einzel-Ports laufen. Stattdessen werden sie zum Beispiel in Spine-Leaf-Anbindungen mit 4 x 200G genutzt oder als Leaf-Server-Anbindungen mit 400G-Ports, die auf 8 x 50G-Ports aufgeteilt sind. Aus einem Hochgeschwindigkeits-Port werden also mehrere Ports mit jeweils geringeren Übertragungsraten.
Diese Anwendung erfüllt zum einen die Bandbreitenanforderungen, verbraucht jedoch wesentlich weniger Strom als der 800G-Betrieb, der für die meisten Rechenzentrumsbetreiber noch in weiter Ferne liegt. Zusätzlich ist so weniger Kühlung nötig. Dies gilt auch für heute überwiegend betriebene Geschwindigkeiten von 40G, 100G oder 400G im Hyperscale/Cloud-Bereich. Die Leistungsaufnahme eines 100G-Duplex-Transceivers beispielsweise liegt für einen QSFP-DD-Transceiver bei etwa 4,5 Watt. Ein parallel-optischer 400G-Transceiver verbraucht hingegen nur drei Watt pro Port, wenn er im Breakout-Modus für 4 x 100G Ports arbeitet. So lassen sich bis zu 30 Prozent des Stroms einsparen, ungeachtet der zusätzlich entstehenden Einsparungen bei Klimatisierung sowie der Leistungsaufnahme der Switch-Chassis und deren Beitrag zur Platzeinsparung.
Das Port-Breakout-Konzept bringt zudem noch einen weiteren Vorteil mit sich. Für zukünftige Updates können Rechenzentrumsbetreiber mit wenigen Änderungen in der passiven Netzwerkinfrastruktur auf höhere Geschwindigkeiten aufrüsten, ohne dass ein Technikwechsel oder ein kompletter Austausch der Verkabelungskomponenten notwendig ist. Nachhaltiges Wirtschaften und geringe Ausfallzeiten bei Änderungen oder Erweiterungen des Netzwerks gehen Hand in Hand. Mit der Markteinführung von 400G und im weiteren Verlauf auch 800G-Transceivern sind zusätzlich zu den traditionellen LC-Duplex- und MPO-12-Verkabelungsschnittstellen, die aus dem Rechenzentrumsumfeld bekannt sind, weitere Steckgesichter hinzugekommen. Dazu gehören unter anderem neue MPO-Bauformen MPO-16 und MPO-12 DD (zweireihig), außerdem SN, CS und MDC als neue Very-Small-Form-Factor-Steckformate.
Auf der Grundfläche eines LC-Duplex-Steckverbinders lassen sich bis zu drei MDC- oder SN-Steckgesichter unterbringen. Dies verspricht zum einen eine bis zu dreifache Packungsdichte und kann zum anderen zur Senkung der Gesamtbetriebskosten beitragen. Des Weiteren bieten MDC- und SN-Steckverbinder-Formate die Möglichkeit, Port Breakout direkt auf der Transceiver-Ebene zu betreiben, sollte eine Punkt-zu-Punkt-Verkabelung nötig und sinnvoll sein.