Aus Sicht der Analysten entwickeln sich die Netze im Datacenter in zwei Phasen:
Phase 1: Netzwerkkonsolidierung im Datacenter
Die erste Phase der Netzentwicklung im Datacenter ist bereits in vollem Gange. Kennzeichnend für diese Phase sind die Vereinfachung der Netzarchitekturen, die Verbesserung des Netzbetriebs und die zunehmende Performance-Erhöhung. Kurzfristig konzentriert sich die Entwicklung im Netzwerk des Datacenters auf folgende Aspekte:
Die Reduzierung der Übermittlungsebenen: Die Anzahl der notwendigen Netzwerk-Ports, -Geräte, -Links und -Ebenen werden im Datacenter schnell unüberschaubar und sind im Betrieb nicht mehr vernünftig zu managen. Die Anbieter von Netzwerkprodukten reagieren auf diese Anforderungen mit Software-Upgrades, neuen Geräten und neuen Switching-Architekturen:
Tiered Switch-Cluster: Switch-Clustering wird bereits seit Jahren genutzt und sorgt für eine integrierte Link/Geräte-Re-dundanz und ein Load-Balancing. In jüngerer Zeit erweiterten die Anbieter von Netzkomponenten das Clustering von zwei Switches auf Gruppen von Switches. Ein Beispiel für eine solche Lösung ist ein Cluster – von bis zu zehn EX4200s –, die mit der Juniper-Virtual-Chassis-Technologie aufgebaut werden können. Auch die neuen Brocade-Switches verfügen über Cluster-Eigenschaften und vereinfachen somit das Datacenter-Switching. Die meis-ten Anbieter bieten bereits heute im Access-Switch- und im Aggregation-Bereich Cluster-Funktionen an.
Collapsed Datacenter-Netzarchitekturen: Switch-Cluster sorgen auf der horizontalen Ebene für eine verbesserte Skalierung, eine erhöhte Redundanz und Durchsatz. Extreme Networks geht hierbei noch einen Schritt weiter und reduziert die Hops durch den Einsatz der M-LAG-Switch-Clustering-Technologie auf ein zweistufiges Architekturmodell. Ähnliche Konzepte sind von HP und Force10 in Vorbereitung.
Die angestrebten zweistufigen Datacenter-Netzwerke führen auch zu einer signifikanten Veränderung beim Netzmanagement. Die klassischen CLIs werden über mehrere Geräte ausgeweitet. Die modernen Netzmanagement-Tools, wie beispielsweise der „Data Center Manager“ (DCM) von Enterasys sorgen für eine zusammenhängende Verwaltung aller im Switch-Cluster oder im gesamten Datacenter-Netzwerk integrierten Komponenten.
Auch in hochverfügbaren Datacenter-Netzwerken müssen Software-Upgrades und Patches aufgespielt und weitere Wartungsarbeiten vorgenommen werden. Ciscos „NX-OS“ bietet hierfür eine Funktion namens „In-Service Software Upgrade (ISSU)“. Dieses soll die Installation von Updates oder neue Funktionen ohne Ausfallzeiten oder Paketverluste ermöglichen.
Erhöhung des Durchsatzes und der Performance: Nicht nur Vereinfachungen und Kostenreduzierung stehen in den Datacenter-Netzwerken im Mittelpunkt der Entwicklung, sondern auch Clusterfunktionen und die Server-Virtualisierung. Die modernen Anwendungen hängen im hohen Maße vom Durchsatz und einer geringen Latenz ab. Darüber hinaus muss die Kommunikation unter Umständen über Tausende von Switch-Ports transparent funktionieren. Unter Experten gelten die Collapsed-Datacenter-Netzwerke als die einfachste Möglichkeit, die Performance-Anforderungen zu erfüllen. Sie bieten folgende Vorteile:
Die Beseitigung von Spanning-Tree-Protocol-Einschränkungen: Eine Skalierung auf Ebene 2 erfordert, dass die durch das Spanning-Tree-Protocol erzeugten Beschränkungen (aktiver/passiver Link) überwunden werden. Die modernen Switch-Clustering-Technologien, wie Cisco-VPC, tauschen das STP durch eine Aktiv/Aktiv-Uplink-Technologie aus.
40-GBit/s und 100-GBit/s-Ethernet: Der 10-GBit/s-Ethernet-Standard brachte in den Access-Layer mehr Bandbreite und erhöhte damit auch die Nachfrage nach 40-GBit/s- und 100-GBit/s-Anbindungen im Aggregation/Core-Bereich. Diesen Bereich adressiert Extreme Networks mit seinem „Black-Diamond X8“ welcher 192 40-GBit/s schnelle Ports bietet. Auch Brocade hat mit seinen 100-GBit/s- Ethernet-Einschubkarten für seine MLXe.Switches gezeigt, wohin die Reise geht. Noch sind diese Switches relativ teuer, aber durch den Wettbewerb der Hersteller untereinander wird auch für diese Komponenten ein allgemeiner Preisverfall bis zum Jahr 2013 erwartet.
Neue Fabric-Architekturen: Ein zweistufiger Switch-Cluster kann den Anforderungen der meisten Unternehmen genügen. Für große Unternehmen und Service-Provider genügt dies jedoch nicht immer. Hier werden Rechenzentrumskapazitäten mit beispiellosen Ausmaßen (25.000 Server und mehr) aufgebaut.
Im Vorgriff auf Extremanforderung haben die führenden Netzwerkanbieter ihre neuen Fabric-Architekturen angekündigt. Im Datacenter stehen die Fabric-Architekturen für die Realisierung von flachen (any-to-any), nicht blockierenden L2-Netzwerken. In diesem Bereich arbeitet beispielsweise Brocade mit seiner Virtual-Clustering-Switch-Technologie VCS, Cisco bietet „FabricPath“ und Juniper Networks kündigte kürzlich seine lange erwartete „QFabric“ an.
Integration der Virtualisierungs-Technologien: Virtuelle Switches sind die Voraussetzung zur flexiblen Bereitstellung von virtuellen Rechnern (VMs). Diese Zusatzfunktionen fügen aber unabhängig vom physikalischen Netzwerk im Datacenter eine weitere Switching-Hierarchie hinzu. Die meisten Anbieter versuchen dieses Problem durch folgende Maßnahmen zu überwinden:
Zusammenarbeit mit den Herstellern von Virtualisierungs-Plattformen: Jeder Netzwerkanbieter hat bereits eine Beziehung zu Vmware aufgebaut und stellt damit sicher, dass seine Switches problemlos mit Technologien wie beispielsweise Vmware-ESX, -ESXi oder -V-Sphere arbeiten. Früher war die Arbeit mit der Integration von proprietären Netzmanagement-Tools in die V-Center-APIs getan. Marktanalysten zeigen jedoch auf, dass bei 71 Prozent aller Unternehmen mindestens zwei Virtualisierungs-Technologien im Einsatz sind. Daher müssen die Netzwerkanbieter auch mit anderen Technologien jenseits von Vmware zusammenarbeiten. Einige Anbieter haben bereits die ersten Schritte in diese Richtung unternommen Zum Beispiel arbeitet IBMs Blade-Networks-VM-ready-Technologie mit Vmware, Microsoft-Hyper-V, Citrix-Xen-Server, Linux-KVM und Oracle-VM zusammen.
Virtuelle Switch-Funktionen: Momentan ist Cisco der einzige Anbieter der über einen eigenen virtuellen Switch (Nexus 1000V) verfügt. Das Cisco-System basiert auf dem IEEE-802.1Q-Standard. Der Nexus-1000V positioniert sich als Alternative zu den Vmware-V-Switches. Der Nexus-1000V agiert als verteilter Switch, an dem mehrere physische Server und Vmware-Hypervisor angeschlossen werden können. Leider funktioniert der Nexus 1000V nur in einer Vmware-Umgebung.
Viele Netzanbieter gehen jedoch einen anderen Weg. Sie glauben, dass die Switching-Funktionen im Netzwerk und nicht im Hypervisor auf dem Intel-Server realisiert werden soll. Typischerweise wird dies wie folgt begründet:
Die Hersteller aus dem Netzwerkbereich sind der festen Überzeugung, dass durch eine Ausgliederung des Switchings aus den Servern der Overhead drastisch reduziert werden kann. Die zunehmende Virtualisierungsdichte erhöht jedoch den durch den virtuellen Switch generierten Overhead.
Reduzierung der Management-Komplexität: Die Anbieter glauben, dass ein virtueller Switch aus Sicht der physikalischen Netzwerk-Switches einen Fremdkörper im Netz darstellt, der nicht in der Lage ist die gleichen Policies (Filter, Sicherheit, Access-Control-Lis-ten, etc.) anzuwenden wie die physikalischen Switches. Dieser Lösungsansatz führt zu einer Duplizierung bestimmter Verwaltungsaufgaben. Da die Switches bereits über die notwendige Intelligenz verfügen, macht es wenig Sinn, deren Funktionen und Dienste an anderer Stelle noch einmal zu erbringen.
Die Ansätze der Netzwerkhersteller entbehren nicht einer gewissen Logik. Die Auslagerung des VM-Switchings befindet sich jedoch noch in einem frühen Entwicklungsstadium und ist noch nicht wirklich über das Stadium der Entwicklerdebatten hinausgekommen.