Nahezu alle Unternehmen sehen sich mit einem immens ansteigenden Datenverkehr konfrontiert. Sie reagieren darauf mit der Umgestaltung und Virtualisierung ihrer IT-Infrastruktur. Virtualisierung, Konvergenz, Cloud Computing, Big Data und hoch optimierte Workloads benötigen jedoch spezialisierte Netzwerktopologien, die den Anforderungen moderner Rechenzentren genügen.
Die wichtigsten Komponenten dieser neuen Ära der Systemvernetzung sind integriertes Netzwerk-Management, Virtualisierung und Automatisierung sowie hochleistungsfähige Netzstrukturen mit flachen und konvergierten Topologien. Ein wichtiger Treiber in dieser neuen Netzwerkgeneration ist das „Single Pane of Glass“-Netzwerk-Management: Das siloübergreifende IT-Management wird durch integriertes Element-Management und Orchestrierung auf Rack-, Row- und integrierter Systemebene im RZ ermöglicht. Ein weiterer Treiber ist in der Verschiebung hin zur großflächigen Nutzung der Virtualisierung zu sehen. Diese Entwicklung wiederum erfordert es, dass das Netzwerk in der Lage ist, virtuelle Infrastrukturen zu erkennen, um VM-Mobilität und die Migration massiv virtualisierter Workloads über das gesamte RZ hinweg zu ermöglichen. Diese Vision setzt auf standardbasierte Netzwerkvirtualisierung über physische und virtuelle Switching-Infrastrukturen hinweg. Überdies wächst der Bedarf an schnellem, aber kosteneffizientem I/O sowie an skalierbarer Server-Server-Kommunikation in hoch virtualisierten, Cloud- und Workload-optimierten Rechenzentren. Die Forderung nach nahezu latenzfreien Netzen und Single-Wire-Kommunikation macht die Entwicklung hin zu flacheren konvergierten Netzen unabdingbar. Inzwischen werden immer mehr Best Practices und Standards entwickelt, um die versprochenen, nahezu latenz- und verlustfreien Netze zu verwirklichen. Diese Treiber im Verein mit den hohen Anforderungen moderner Rechenzentren an das Netzwerk führen zu einer neuen Art der Systemvernetzung, die speziell auf den Hochlastbetrieb ausgelegt ist.
Neue Anforderungen
Der dramatische Anstieg im I/O resultiert aus Virtualisierung, High Performance Computing, Video, sozialen Medien und sonstigen bandbreitenintensiven Nutzungen. Diese Anwendungsszenarien benötigen hochleistungsfähige, nahezu latenzfreie Daten- und Speichernetze, realisierbar durch Top-of-Rack- und Blade-Switch-Infrastrukturen sowie die eingebetteten Netzelemente in integrierten Systemen. Welche Art von Netzwerk auch immer implementiert wird: Die physische IT-Infrastruktur hat Auswirkungen auf RZ-Fläche, Stromversorgung und Klimatisierung. RZ-Betreiber sind sich dabei auch des Aspekts Dichte bewusst – also in der Lage zu sein, mehr Rechen-, Speicher- und I/O-Kapazität pro Quadratmeter Doppelboden bereitzustellen, um größtmöglichen Gewinn aus der baulichen Infrastruktur des Rechenzentrums zu erzielen. Und dies richtet wiederum den Fokus darauf, welches Potenzial gut durchdachte Systemnetzwerke besitzen, um die komplette RZ-Struktur räumlich und technisch optimal zu nutzen. RZ-Betreiber benötigen Management-Tools und Geschäftsmodelle von IT-Anbietern, die es ihnen erleichtern, auch riesige Infrastrukturen schnell einzusetzen, ohne die eigene IT-Organisation ausbauen zu müssen. Fabric-basierte Netzarchitekturen ermöglichen dabei holistische RZ-Infrastrukturen mit integrierten Server-, Speicher- und Netzwerkkomponenten sowie integrierten Systemen, die einfach einzusetzen und zu managen sind. Die Möglichkeit zur Virtualisierung wird zunehmend als „eingebettetes“ Feature von RZ-Netzen erwartet. Mehr denn je haben RZ-Betreiber auch die Gesamtkosten (Total Cost of Ownership, TCO) ihrer IT-Infrastrukturen im Blick.
Vernetzung für Hochlastbetrieb
Dynamische Netzwerkinfrastrukturen für den Hochlastbetrieb lassen sich am besten im Rahmen eines auf offenen Standards basierenden Konzepts realisieren, um das Management zu vereinfachen, die Virtualisierung zu optimieren und zu automatisieren sowie das Netz flacher zu gestalten und zu konvergieren. Heute ist es möglich, Rechenzentren mit erheblich mehr Netzintelligenz auszustatten: weg vom Core-zentrischen Modell, wo weniger intelligente Switches näher an den Servern sind, aber die Netze hinsichtlich Größe und Durchsatz beschränkt sind, hin zu Edge-zentrischen Modellen, wo ein dynamisches Systemnetzwerk die Interaktionen zwischen Netzwerk und Servern, zum Beispiel Virtual-Workload-Mobilität, erkennt, in Richtung eines Server-zentrischen Modells, in dem mehr Größe und höherer Durchsatz erzielbar sind und Server-Software das Netzwerk automatisch steuert.
Management vereinfachen
Eine einheitliche Fabric-Architektur ermöglicht schnellere, intelligentere und einfacher zu verwaltende RZ-Infrastrukturen. Sie senken die Kosten und vereinfachen den Einsatz physischer und virtueller Infrastrukturen erheblich. Eine standardbasierte Fabric-Architektur erlaubt es, Server, Speicher, Hypervisoren, Netzwerkkomponenten und integrierte Systeme in einer zusammenhängenden Umgebung zu verknüpfen. So können Unternehmen, die bereits mehrere Millionen Euro in ihre Rechenzentren investiert haben, die besten Innovationen der Branche nutzen – und die niedrigstmögliche TCO für ihre IT-Infrastruktur erzielen. Ein entscheidendes Ziel bleibt, aus der Integration von System-, Speicher- und Netzwerktechnik einfachere Strukturen zu schaffen. Hier bietet plattformübergreifende Netzwerk-Management-Software die Möglichkeit, alle Aspekte von Netzwerk-Management und Service-Qualität zu visualisieren, zu steuern und zu automatisieren. So lässt sich der Betrieb konsolidieren, um ein dynamisches Infrastruktur-Management zu schaffen. Automatische Netzwerkerkennung sowie topologiebasiertes Management tragen dazu bei, dass Unternehmen die Sichtbarkeit der Netze, die Zuverlässigkeit der Laufwerke und die Performance verbessern können. Um IT-Administratoren – besonders, wenn sie keine Netzwerkspezialisten sind – die Netzverwaltung zu erleichtern, ist eine Management-Komponente für Netzwerkelemente erforderlich, sowohl für die Fernüberwachung als auch das Management von Fabric-Elementen. Ein einheitliches Netzwerk-Management stellt eine zentrale Administrationsstelle zur Verfügung, um die Service-Bereitstellung zu verbessern und die Management-Kosten zu senken. Wenn die Anzahl der Netzwerkschnittstellen, die für eine bestimmte Workload erforderlich ist, zu reduzieren ist und eine bestimmte Zahl ultraschneller Schnittstellen aufzuteilen und zu priorisieren sind, können Virtual-Fabric-Topologien zu einer deutlichen Verringerung der Kosten und Komplexität beitragen. Diese Topologien konsolidieren mehrere I/O-Adapter in einem einzigen Dual-Port-10GbE-Adapter, was auch die Anzahl benötigter Kabel und Upstream Switch Ports verringert.
Virtualisierung optimieren
Dem Bedarf nach Vereinfachung stehen andere, ebenso drängende Anforderungen entgegen: Denn die Netze sollen weiterhin unzählige unterschiedliche Geschäfts-, Workload- und SLA-Anforderungen erfüllen. Die Forderung nach einfach zu steuernden und zugleich hochflexiblen und vielseitigen Netzen führt dabei zu einer dramatischen Revolution der Netze, bekannt als Software-Defined Networking (SDN). Anbieter gehen heute dazu über, softwaredefinierte Netze auf der Basis der entstehenden Openflow-Spezifikation der Open Network Foundation (ONF) zu realisieren. Openflow stellt eine offene, Server-getriebene Schnittstelle zur Verfügung, um zu steuern, wie Datenpakete durch das Netzwerk transportiert werden. Mit Openflow könnte ein Netzwerkadministrator bei Bedarf so genannte Express Lanes für den Sprach- und zeitkritischen Datenverkehr erzeugen. Damit lassen sich Netzwerke realisieren, die für den Benutzer nicht nur leicht zu definieren, zu steuern und zu managen sind, sondern gleichzeitig kundenspezifisch aufgebaut werden können, um höchste Ansprüche an Performance, Sicherheit und Verfügbarkeit zu erfüllen. Server-Virtualisierung bedeutet für das RZ Fortschritt und Rückschritt zugleich: Zwar kann sie die Nutzung unausgelasteter Ressourcen optimieren und Investitionen in die Infrastruktur reduzieren, sie bedeutet aber auch zusätzliche Komplexität und administrativen Mehraufwand. Um die Erwartungen an eine dynamischen Umgebung zu erfüllen, muss ein intelligentes Netzwerk die VMs unterstützen. Die modernen führenden VM-Netze automatisieren deshalb die Virtualisierung, damit man das Netzwerk für Tausende virtueller Ports (V-Ports) konfigurieren, administrieren und sichern kann. In solchen VM-orientierten, automatisierten Netzen erfolgt die VM-Migration über physische Hosts hinweg. Dies gilt auch für ihre Netzattribute: Dabei bleiben die ACLs, QoS- und VLAN-Attribute unverändert. Edge Virtual Bridging (EVB) nach IEEE 802.1Qbg erleichtert hier die Umsetzung der Edge-Virtualisierung der Server-Netze im RZ.
Flachere Netze
Moderne Server stellen neue Anforderungen an das Systemnetzwerk-Fabric, um einen unterbrechungs- und latenzfreien Datenfluss zu erreichen. Dieser Verkehr läuft immer stärker in „Ost-West“-Richtung, um die Maschine-Maschine-Kommunikation zu ermöglichen, und zwar im Gegensatz zum „Nord-Süd“-Verkehr, der herkömmliche Client/Server- und Web-basierte Applikationsumgebungen kennzeichnet. TRILL (Transparent Interconnection of Lots of Links) entwickelt sich dabei als standardbasierter Ansatz zur Implementierung von großen, flachen Layer 2-Netzen mit durchsatzstarken, beinahe latenzfreien Top-of-Rack-Switches. TRILL verbindet Server, Peripheriegeräte und Speicher in einer umfassenden „Fat Tree“-Struktur ohne blockierte Links und zusätzliche Hops sowie mit den kürzesten und effizientesten Pfaden von Link zu Link. Zudem eignet sich TRILL hervorragend dazu, verlustfreie Netze für konvergierte Daten- und Speichernetze mit FCoE (Fibre Channel over Ethernet), iSCSI und NAS zu implementieren. ECMP-Routing (Equal-Cost Multi-Path) ist ein Layer-3-Konzept für blockierungsfreie Netzwerke, das in Hochleistungsumgebungen immer populärer wird.
Netzwerke konvergieren
Neben dem Trend zu flachen Netzen beobachten die RZ-Betreiber ganz genau die konvergierten Netze. Entscheidend ist für sie, ob und wie ein einziges konvergiertes Daten- und Speichernetz die I/O-Anforderungen von Applikationen und Workloads bewältigen und gleichzeitig Komplexität und Administrationsaufwand verringern kann. Inzwischen liegen konvergierte Netzwerklösungen vor, die leicht zu konfigurieren und zu administrieren sind und dieselbe Ethernet-Netzwerkinfrastruktur nutzen, um die RZ-Komplexität und die Betriebskosten zu senken. Der neue DCB-Standard (Data Center Bridging) ermöglicht eine 10-Gigabit-Ethernet-Verbindung für gleichzeitigen Daten- und Speicherverkehr, wobei die jeweiligen Attribute erhalten bleiben. Normalerweise schließt man Server in RZs mit unterschiedlichen Adaptern und Kabelinfrastrukturen an Daten-, Speicher- oder Server-to-Server-Netze an. Heute kann ein 10GbE-Server ein einziges Kabel für alle Verkehrsarten bieten. Die Konsolidierung eines Ethernet-Fabrics reduziert die Anzahl der benötigten Adapter und Kabel erheblich und sorgt für eine drastische Senkung des Stromverbrauchs und der Gesamtkosten für die Administration. Dateizugriffsprotokolle wie NFS und CIFS laufen normalerweise über Ethernet. Diese Protokolle sehen bereits Performance-Steigerungen bei 10GbE. IP-basierte Speicherlösungen sind leicht zu konfigurieren und zu administrieren und nutzen dieselbe Ethernet-Netzwerkinfrastruktur, um die Komplexität im RZ sowie die Betriebskosten zu senken. Früher war das Ethernet ein Best-Effort-Netzwerk, das Pakete verlieren oder in falscher Reihenfolge abliefern konnte, wenn das Netzwerk stark belastet war. Dies führte zu Neuübertragungen und Ausfallzeiten. Neue Standards haben zu besseren, verlustfreien Ethernet-Protokollen geführt. Diese Standards werden unter dem Begriff Data Center Bridging zusammengefasst. Dazu gehören Priority Flow Control (IEEE 802.1Qbb), Congestion Notification (IEEE 802.1Qau) Enhanced Transmission Selection (802.1Qaz) und das DCB Exchange Protocol (DCBX). HPC-Applikationen (High-Performance Computing) müssen hinsichtlich ihres Preis-Leistungs-Verhältnisses hohen Ansprüchen gerecht werden. Mit den DCB-Erweiterungen und dem Normvorschlag RDMA over Converged Ethernet (RoCE) kann Ethernet die für HPC-Cluster notwendige, nahezu latenzfreie Inter-Prozess-Kommunikation liefern, was es zu einer echten Alternative zu Infiniband macht. Mit diesen Vorteilen bietet Ethernet genau die richtigen Eigenschaften, um zum einzigen im Rechenzentrum benötigten Switching-Fabric zu werden und den „Single Wire“ für Daten, Speicher und Cluster-Bildung darzustellen. Stromverbrauch und Klimatisierung gehören zu den größten Herausforderungen für RZ-Betreiber. Neue Umweltauflagen und steigende Energiekosten zwingen Administratoren dazu, sich auf grüne Initiativen zu fokussieren. Deshalb kommt der Entscheidung für maximal effiziente Netzwerkkomponenten eine wesentliche Bedeutung zu. In dem Maße, in dem Clouds auf Tausende von Servern und darüber hinaus anwachsen, wird die Stromersparnis pro Komponente zu einer erheblichen Budgetentlastung.