Datacenter-Architektur

SDX - Ist der Spuk schon vorbei?

25. Februar 2015, 15:58 Uhr | Ulrich Hamm, Consulting System Engineer Data Center bei Cisco Deutschland
© fs - Quelle: fotolia

Software-Defined-Networks, Software-Defined-Storage, Software-Defined-Datacenter: Was ein "SD" vorne trägt, ist in. Doch beim zweiten Blick fällt auf, dass viele Unternehmen mittlerweile genauer abwägen, was SDN wirklich bedeutet – technisch, organisatorisch – und dass SDN nicht immer die alleinige Lösungsmöglichkeit ist.

Einerseits stehen schon seit längerem alternative Technologien zur Verfügung, andererseits gibt es neue, umfassende Ansätze, die noch einige Schritte weitergehen und zukunftsfähiger sind. Welche technischen und organisatorischen Herausforderungen gibt es beim Thema Automatisierung der Infrastruktur zu beachten – und wie ist der Status-Quo?

Die aktuellen Anforderungen des Marktes sind relativ klar: Aufgrund der sich immer schneller verändernden Geschäftsprozesse müssen sich Netzwerke, Storage-Systeme und Rechenzentren flexibel anpassen lassen. Denn sie haben zum einen immer mehr Anwendungen zu bewältigen wie Cloud-Applikationen, Virtualisierung, Videokonferenzen oder Telefonie. Zum anderen erhöhen Trends wie Big-Data, Bring-Your-Own-Device oder Internet of Everything sowohl die Datenmenge als auch die geforderte Flexibilität zusätzlich. Unternehmen benötigen daher eine entsprechend orchestrierte und automatisierte Infrastruktur, die sich möglichst agil und auf einfache Weise verändern lässt.

Um dies zu erreichen, wurde der Ansatz Software-Defined-Networking (SDN) entwickelt, der die Kontroll- von der Datenebene trennt. Einfach ausgedrückt, wird die Kontrollebene aus den Netzwerkelementen extrahiert und in ein zentrales System übertragen, den SDN-Controller. Dabei kann es sich um eine Hardware-Appliance, einen physischen Server oder eine virtuelle Maschine handeln. Der Controller definiert die Regeln, wie die Datenpakete zu übertragen sind, und gibt diese an die Netzwerkelemente weiter.

Zur Kommunikation zwischen Controller und Infrastruktur lässt sich etwa das Openflow-Protokoll nutzen. Es wird von der Open Networking Foundation (ONF) überwacht und von zahlreichen Unternehmen gemeinsam weiterentwickelt. Openflow ermöglicht die Programmierung des Netzwerks auf
einer Pro-Datenfluss-Basis und damit eine detaillierte Kontrolle der darauf basierenden SDN-Infrastruktur. Somit erfüllt es die Anforderung, das Netzwerk auf Anwendungs-, Nutzer- oder Session-Ebene schnell und einfach anzupassen. Daher wurden entsprechende Architekturen auch für die Bereiche Storage und Datacenter entwickelt.

SDN: Vor- und Nachteile

SDN ermöglicht die zentrale Programmierung und Steuerung sämtlicher Netzwerkkomponenten, um Änderungen automatisieren und orchestrieren zu können. Dadurch lassen sich Netzwerkressourcen besser virtualisieren und schneller an geänderte Lastsituationen anpassen. Zudem können Unternehmen über definierte APIs in sämtlichen Netzwerkkomponenten direkt aus Software-Anwendungen heraus die benötigte Dienstqualität im Netzwerk regeln. Dieses wird dadurch flexibler und das Netzwerk-Management einfacher, da es nun von einem Punkt aus erfolgt.

Der Teufel steckt aber im Detail: Die traditionellen Management-Konzepte sind nämlich meist gerätezentrisch. In statischen IT-Modellen ist dies akzeptabel, jedoch nicht in den heutigen dynamischen IT-Landschaften. Denn es steigert die Komplexität und erhöht damit das Betriebsrisiko. Die fehlende oder unzureichende Interaktion zwischen Anwendungen und darunterliegender Infrastruktur wollen Software-basierte Modelle durch Virtualisierung lösen. Doch ohne echte Integration physikalischer und virtueller Infrastrukturen ist keine wirkliche Visibilität und Transparenz im laufenden Betrieb möglich. Die heutigen SDN-Modelle bieten zwar eine programmatische Kontrolle des Netzwerks mit einer Netzwerksbetriebs-Perspektive (NetOps) und nutzen netzwerkzentrierte Sprachen für die Anwendungskonnektivität, jedoch sind sie nur Anpassungen bestehender Konzepte und wurden nicht von Grund auf neu für die aktuellen Anforderungen entwickelt. Daher stellen sie einen Kompromiss dar.

Neben diesen technologischen gibt es auch organisatorische und strategische Herausforderungen, die Software-Defined-Ansätze schnell an die Grenze der Leistungsfähigkeit bringen. Dazu zählt vor allem die Bewältigung der zahlreichen Prozessvorgaben in Unternehmen. Zum Beispiel werden Change-Prozesse durch die engere Einbindung sämtlicher Stakeholder immer komplexer und stellen zunehmende Anforderungen an die unterstützenden Anwendungen und Infrastrukturen. Die steigende Mobilität der Workloads innerhalb eines Rechenzentrums sowie im Zuge von Cloud-Computing auch Datacenter-übergreifend stellt ebenfalls eine große Herausforderung dar. Und mit dem Internet of Everything, das Milliarden von Objekten, Menschen, Prozessen und Anwendungen miteinander vernetzt, steigen die Erwartungen der Nutzer an Reaktionszeit und Verfügbarkeit der Services, aber auch die Anzahl der zu berücksichtigenden Policies weiterhin. So müssen IT-Verantwortliche über die gesamte Lieferkette – vom Rechenzentrum über LANs bis zu Weitverkehrsnetzen (WANs) – Anwendungen mit hoher Performance und Sicherheit bereitstellen.

Anbieter zum Thema

zu Matchmaker+

  1. SDX - Ist der Spuk schon vorbei?
  2. Alte und neue Alternativen
  3. ACI und APIC

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Cisco Systems GmbH Düsseldorf

Weitere Artikel zu Cisco Systems GmbH Hallbergmoos

Weitere Artikel zu Cisco Systems GmbH

Weitere Artikel zu Cisco Systems GmbH

Weitere Artikel zu Server, Datacenter

Matchmaker+