Messtechnik

Am Puls der Netzwerktransformation

22. März 2022, 13:30 Uhr | Autorin: Diana Künstler
Netzwerk, Datenaustausch
© ktsdesign / 123rf

Die fortschreitende Digitalisierung bringt neue Anwendungen und Dienste hervor. Das erfordert die Übertragung von immer mehr Daten, wozu neue Netzwerkarchitekturen beitragen sollen. Doch bis es soweit ist, bedarf es noch vieler Standards, Know-how-Transfers und vor allem einer Sache: Tests.

Die Einführung der Mobilfunkstandards der fünften Generation wird ganze Branchen – wie das Gesundheitswesen, die Spieleindustrie, die Fertigung, die Notdienste oder die Produktion – verändern. Denn dank seiner geringen Latenzzeit und verbesserter Sicherheit ermöglicht privates 5G Unternehmen die Implementierung neuer Anwendungen, die Reaktionen in Echtzeit erfordern sowie eine schnellere Datenverarbeitung für Künstliche Intelligenz und Machine Learning. Man denke nur an die Entwicklungen in den Bereichen Fahrzeug, IoT-Endgeräte oder auch leistungsfähige Internetzugänge für temporäre Standorte. Den Branchenbeobachtern von IDC zufolge wird der globale Markt für 5G- und LTE-Infrastruktur bis Ende 2024 die Marke von 5,7 Milliarden US-Dollar knacken.

Ähnlich dynamisch entwickelt sich auch die Ethernet-Netzwerk-Landschaft: Im Zuge der zunehmenden Digitalisierung wächst der Markt für 400G nahezu exponentiell. Jede erfolgreiche neue Anwendung und Weiterentwicklung ist auf die Übertragung von immer mehr Daten angewiesen. In der Folge nimmt der Datenverkehr rasant zu. Die Netzbetreiber beschleunigen die Einführung von 400G, um so ihre Netzwerke für die Zukunft zu rüsten – und haben bereits den Blick darauf, was danach kommen könnte: 800G.

Anbieter zum Thema

zu Matchmaker+

Das Netzwerk, ein großes Ganzes

Joachim Peerlings, Keysight
Joachim Peerlings, Geschäftsführer Keysight Technologies Deutschland sowie Vice President of Network and Data Center Solutions bei Keysight Technologies: „Um das Potenzial von 5G wirklich ausschöpfen zu können und alle Busi-nessmodelle umsetzen zu können, braucht es viel mehr: allem voran die drahtgebundene Technologie.“
© Keysight Technologies

„Neue Wireless-Technologien wie 5G oder 6G sind derzeit in aller Munde. Aber um das Potenzial voll ausschöpfen zu können und die Vielzahl der Businessmodelle umsetzen zu können, braucht es viel mehr: allem voran die drahtgebundene Technologie“, ist Joachim Peerlings, Geschäftsführer bei Keysight Technologies Deutschland, überzeugt. Der Messtechnik-Spezialist arbeitet mit wichtigen Akteuren der Netzausrüster- und auch Halbleiterbranche zusammen und unterstützt viele seiner Kunden bereits in der frühen Entwicklungsphase von Netzwerktechnologien. Erst Ende Januar hat der Anbieter in Zusammenarbeit mit Qualcomm Technologies einen Datendurchsatz im Uplink von 3,5 Gigabit pro Sekunde unter Verwendung von 5G New Radio Dual Connectivity (NR-DC) mit mmWave Carrier Aggregation (CA) verkünden können. Ein „industrieller Meilenstein“, heißt es, der 5G-Anwendungsfälle mit hohen Daten-Upload-Anforderungen ermögliche; darunter das Streaming von Live-Videoinhalten, Spiele und die Datensicherung in einer Cloud-Umgebung.

Das ist nur eines von vielen Beispielen. Im Bereich der „kommerziellen Kommunikation“ führt der Messtechnik-Spezialist zahlreiche Tests durch: von mobilen Gerät über das drahtlose Access-Netzwerk (u.a. Entwicklung von Basisstationen) bis hin zu drahtgebundenen Netzwerken. Da-rüber hinaus gibt es Weitverkehrsnetzwerke, die mehrere tausend Kilometer langen Unterseenetzwerke und natürlich Datencenter. Und nicht zu vergessen die Server, die „ultimative Quelle aller Daten“, so Peerlings. Denn wenn das Signal durch diese ganze Kette bis zum Endgerät geht, muss eben alles stimmen. „Es braucht wahnsinnig viel Innovation in dieser ganzen drahtgebundenen Kette, um überhaupt Mehrwert aus 5G zu schöpfen“, führt der Keysight-Geschäftsführer aus. „Denn wenn man dieses ganze Netzwerk hier nicht gleichermaßen ausbaut, dann bringt das 5G-Endgerät am Ende gar nichts.“ Will man nämlich geringere Ladezeiten haben, will man höhere Bandbreite haben, müssen sie hier aggregiert werden. „Das ist ein Riesenaufwand, der oft nicht gesehen wird. Das heißt die Datenmengen, die in jedem einzelnen Abschnitt übertragen werden müssen, erhöhen sich ständig und dafür braucht es viel neue Technologie – und somit auch viel Messtechnik.“ Ob das Beschleunigungsprozessoren, ICs oder CPUs seien – jede Schnittstelle, jeder Datenüberträger müsse neu gedacht werden. Neben der Bandbreite seien vor allem Energieverbrauch und die Kosten dabei ein wichtiges Thema. Und das müsse man alles in Einklang bringen, so Peerlings. „Wir sind also mittendrin in der ganzen Thematik, wie man Leistung im Sinne von Performance hoch, aber Kosten und Leistungsaufnahme im Sinne von Energieverbrauch herunterbekommt.“

Die Bandbreiten-Lücke wächst

Bandbreitenlücke wächst
Die Grafik skizziert in einem logarithmischen Maßstab zum einen die Bandbreite, die die Industrie über die Jahre in den Netzwerken bereitzustellen in der Lage war (schwarze Kurve). Mit der Erfindung des optischen Verstärkers in den 1998er-Jahren beispielsweise wuchs die zur Verfügung gestellte Bandbreite rasant an (Knick in der Kurve). Derzeit herrscht eine Steigerung von etwa 20 Prozent bei der Erhöhung der Kapazität der Netzwerke. Der Bedarf nach Bandbreite ist zum anderen in der blau gestrichelten Linie dargestellt. Dies verdeutlicht: Es herrscht eine Kluft zwischen Angebot und Nachfrage, welche zunehmen wird.
© Keysight Technologies

Bei dieser Entwicklung arbeitet Keysight eng mit Kunden zusammen, denn es gilt Schritt zu halten mit deren Testanforderungen. Nicht so einfach angesichts der starken Beschleunigung von Technologiewellen, denn der Hunger nach Daten nimmt zu. Die Lücke zwischen Angebot und Nachfrage an Bandbreite in den Netzwerken wird zunehmend größer (siehe auch Grafik). So wurden an den Internetknoten des Betreibers DE-CIX allein im vergangenen Jahr mehr als 38 Exabyte Daten ausgetauscht. Das entspricht der Speicherkapazität von mehr als 300 Millionen Smartphones mit jeweils 128 Gigabyte Speicherplatz. 2020 lag der gesamte Datendurchsatz noch bei 32 Exabyte. „Diese Entwicklung wird, zumindest in den nächsten zehn oder 15 Jahren, nicht abflachen. Eher im Gegenteil“, ist Peerlings überzeugt. Die Frage nach einer Killerapplikation stelle sich in Zeiten von sozialen Netzwerken und Videoservices nicht mehr. „Ich glaube, mit 5G – später auch 6G – und der Realisierung von Network Slices, um verschiedenen Anforderungen gerecht zu werden, wird sich das so schnell nicht ändern.“ Vielmehr werde es zahlreiche neue Geschäftsmodelle geben, die darauf aufbauen.

Die Basis dafür liefere, wie bereits angedeutet, die drahtgebundene Technologie. „Im Grunde geht es dabei oft um Fasernetzwerke, die entweder unter See verlegt werden, zwischen Großstädten oder ganzen Kontinenten“, so Peerlings. „Überallhin müssen die Daten übertragen werden und die Glasfasernetzwerke stehen vor der Herausforderung, dass die Bandbreite nicht wirklich geliefert werden kann. Das macht viel Energie frei bei unseren Kunden. Denn im Endeffekt bedeutet eine Nichtlieferung von Bandbreite, dass man als Webscale Company oder Telekom Service Provider auf viel Geld verzichtet.“

In der Folge werde es zudem viel Nachfrage nach verteilten Rechenzentren geben, um Daten lokal verfügbar zu machen. Prominentes Beispiel sei Daimlers „Factory 56“, eine smarte Fabrik für die automatisierte Produktion. In der breiten Masse stecken „wir da noch in den Kinderschuhen“, so Peerlings. Von einer wirklichen Vernetzung der Welt und Digitalisierung, einer automatisierten Produktion, digitalisierten Vertriebsketten und Ökosystemen sei man noch weit entfernt. „Aber das wird alles noch kommen“, ist der Geschäftsführer überzeugt. Vor allem die Machine-to-Maschine-Kommunikation sei ein spannendes und ausbaufähiges Feld, indem auch wieder Player wie Keysight gefordert sein werden.


  1. Am Puls der Netzwerktransformation
  2. Daten dort, wo sie gebraucht werden

Das könnte Sie auch interessieren

Verwandte Artikel

Keysight Technologies

Professional Datacenter

Messtechnik