Die Einsparpotenziale bei gleichzeitiger Leistungssteigerung im Datacenter sind enorm. Konsolidierung und Virtualisierung sind die treibenden Faktoren. Und mit „Datacenter-Bridging“ kommt ein Standard, der die Homogenisierung der Datenströme im Datacenter optimieren soll. Doch noch herrscht Verwirrung, da sich IEEE und IETF nicht einig sind und Hersteller ihre eigenen beziehungsweise Misch-Konzepte entwickeln.
Noch vor ein paar Jahren war es einfach und klar im Netzwerkgeschäft. IP und Ethernet hatte gewonnen – und Standards für alle Herausforderungen haben sich etabliert, die vorher noch oft duch proprietäre Herstellerprotokolle adressiert wurden. Von den IEEE –Layer-2-Standards wie RSTP/MSTP (Rapid-/Multiple-Spanning-Tree) und LACP (Link-Aggregation-Protocol) zu den IETF RFCs rund um VRRP (Virtual-Router-Redundancy-Protocol) , OSPF (Open-Shortest-Path-First) und deren mehr. Dann kam die Virtualisierung und jetzt auch noch die Konvergenz der Netze im Datacenter – und zusammen mit der massiven Serverkonsolidierung in die Datacenter hinein stellen sich völlig neue Herausforderungen an die Netzwerkinfrastruktur.
Zunächst einmal sorgt die Virtualisierung dafür, dass man Server- und Applikationsressourcen nicht mehr physischen Systemen zuordnen kann. Redundanz- und Loadbalancing-Mechanismen sorgen dafür, dass Ressourcen – sprich virtuelle Maschinen (VM) – sehr schnell und automatisiert quer durchs Datacenter und sogar zwischen Datacentern umgezogen werden. Der Verkehrsfluss wird kaum noch vorhersehbar. Und neue Server sind natürlich innerhalb von Minuten im Netz und nicht in Tagen oder Wochen im Datacenter verfügbar. Cloud-Computing lässt grüßen. Die Applikationsarchitekturen selbst haben sich auch verändert. Präsentations/Web-Server sowie Applikations- und Datenbankserver im Scale-Out-Design erzeugen ebenfalls komplexe Verkehrsbeziehungen.
Und Virtual-Desktop-Infrastrukturen (VDI) verlagern die Netzlast ebenfalls ins Rechenzentrum: so dass am Ende ein Wirrwarr von Verkehrsbeziehungen mit extrem hoher Bandbreite entsteht. Die Server werden ja auch immer leistungsfähiger – sowohl CPU als auch I/O - und durch die Virtualisierung werden sie natürlich auch optimal ausgenutzt. Sprich ein Highend-Server mit 10-GBit/s-Netzwerkanschlüssen und einer gesunden Zahl an VM-Systemen benötigt diese Bandbreite dann auch und kann sie auch ausnutzen. Die Konvergenz von Daten und Storage verändert auch das Verkehrsprofil massiv und leider sind die Befürworter von FCoE (Fibre-Channel over Ethernet) zu dem Schluss gekommen, dass sich doch Ethernet gefälligst wie FC verhalten sollte. Und damit werden Flusskontrolle und Co. ins Netz verlagert – Datacenter-Bridging (DCB) ist geboren und wird gerade in der IEEE standardisiert.