Next-Generation-Networks

Dynamische Verbindungen in die Cloud

28. Januar 2013, 13:26 Uhr | Axel Simon und Andreas Hausmann, Program-Manager, HP Networking
-
© fotolia.com

Die Netzverbindungen entwickeln sich bei der Migration in die Cloud zum ärgerlichen Engpass. Neue Technologien wie „OpenFlow“ bieten die nötige Dynamik, brauchen aber Brücken zu den Legacy-Infrastrukturen.

Die heute noch existierenden Netzwerk-Architekturen wurden für eine Zeit entwickelt, als der Desktop-PC noch unter dem Schreibtisch stand und die Anwendungen auf dedizierten Servern im hauseigenen Rechenzentrum liefen. In einer solchen Umgebung werden Netzwerk-Komponenten einzeln konfiguriert, Änderungen sind selten. Durch Überprovisionierung des Netzwerks sorgte man für ein künftiges Daten-Wachstum vor.

Netzwerke entwickeln sich damit zu einem Engpass, da sie nicht schnell auf dynamische Entwicklungen reagieren können und somit die Einführung von Cloud-Betriebsmodellen ernsthaft behindern. Das ist auch kein Wunder. Denn Cloud-Services, egal, ob aus dem Infrastruktur- oder Softwarebereich, sollen innerhalb kürzester Zeit und wenn gewünscht auch nur für wenige Stunden abgerufen werden können - und das von unterschiedlichen mobilen und stationären Endgeräten. Das ist meist schon deshalb nicht möglich, weil die dafür nötigen Verbindungen von den Providern nicht schnell genug aufgebaut werden können. Heute muss man Tage, Wochen oder Monate einkalkulieren, um eine sichere, breitbandige und auf ganzer Länge mit nachprüfbarer Dienstgüte versehene Verbindung über mehrere Providernetze hinweg zu implementieren. Das liegt an den komplexen Router-Konfigurationen und administrativen Abläufen - ein eklatanter Widerspruch zu den Flexibilitätsversprechen der Cloud-Technologie.

Das ist auch der Providerbranche bewusst, die inzwischen energisch neue, virtualisierte Netzwerktechnologien fordert, wie etwa anlässlich der Tagung des Metro Ethernet Forum, die im Frühjahr in München stattfand. Virtualisierung bedeutet hier, dass Steuerungsfunktionen, die heute in den Routern residieren, auf eine separate, geräteunabhängige Ebene ausgelagert werden. Diese Ebene lässt sich mit dem Hypervisor vergleichen, der die Hardware von Servern virtualisiert. Man spricht hier vom Software-Defined-Networking (SDN). Der wichtigste Vorteil besteht darin, dass die zeitraubende Konfiguration der Router entlang der Datenpfade ganz oder teilweise entfällt.

Freilich ist die Komplexität der Router und ihrer verschachtelten Protokollarchitekturen nicht nur in Providernetzen ein Problem. Gerade Betreiber größerer Campus-Architekturen, etwa von Universitäten oder Großunternehmen, wissen, wie viel Arbeit es macht, Verbindungen über viele Router auf- oder wieder abzubauen, Verbindungsfehler exakt zu lokalisieren und jeden Softwareschnipsel innerhalb einer Router-Architektur auf dem aktuellen Stand zu halten. Besonders gilt dies für heterogene Netzwerke, in denen Geräte mehrerer Hersteller stehen. Das wiederum bedeutet, dass viele Anwender Selbstbeschränkung bei der Geräteauswahl üben, weil sie einen Anstieg der Komplexität durch Systeme mehrerer Hersteller fürchten.

Anbieter zum Thema

zu Matchmaker+

  1. Dynamische Verbindungen in die Cloud
  2. Software-Defined-Networking oder ITU-Vorschlag?
  3. SDN steckt in den Kinderschuhen
  4. Die Brücke zur alten Hardware
  5. So implementiert HP Software-Defined-Networking mit Openflow

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Server, Datacenter

Matchmaker+