Netzwerkdesign

Alternativen im Server-Access

28. Oktober 2011, 13:26 Uhr | Markus Nispel, Vice President Solutions Architecture bei Enterasys
Datacenter-Design ToR als 3-Tier, EoR/MoR als 2-Tier
© Enterasys

Virtualisierung und Cloud-Computing verändern die Anforderungen und Strukturen im Rechenzentrum. Insbesondere wird derzeit der Server-Access kontrovers diskutiert: Top-of-Rack (ToR) oder EoR-/MoR (End-of-Row, Middle-of-Row) stehen sich als Switch-Alternativen gegenüber mit ihren spezifischen Vor- und Nachteilen.

Die Serverkonsolidierung und die zugrunde liegende Virtualisierungstechnologie schreitet in den Datacentern massiv voran. Damit erhöht sich die Dichte an Applikationen pro Server – typisch sind heute zehn virtuelle Maschinen (VM) pro physischem Server. Mit dem Einzug von Virtual-Desktop-Lösungen (VDI) kommt man in die Nähe von 100 VMs pro Server. Parallel dazu werden auch die Netze im Rechenzentrum konsolidiert – die Konvergenz von Data und Storage ist im Kommen. Der erste Schritt dazu, die I/O-Konsolidierung, verändert zusätzlich die Anforderungen an Zuverlässigkeit, Latenz und Bandbreite im Rechenzentrum und beim Anschluss von Servern und Storage.

Der Standardanschluss für Server verändert sich von 1-GBit/s- auf 10-GBit/s- Ethernet. Es wird oft unterstellt,  dass man nun einfach die Erfahrungen aus dem 1-GBit/s-Bereich auf die 10-GBit/s-Umgebung übertragen kann. Dem ist aber nicht so. Damit ergeben sich oft Trugschlüsse im Netzdesign, die gravierende Folgen haben können.

Zunächst einmal ist da die Portdichte pro Server: im 1-GBit/s-Bereich sind sechs bis acht Ports die Regel, im 10-GBit/s-   Bereich sind es typischerweise nur noch zwei mit eventuell einem weiteren 1-GBit/s-Port fürs Management. Somit werden teilweise die Probleme bezüglich Portdichte im Serverrack und der Verkabelung eliminiert. Blade-Center-Lösungen können weitere Erleichterung bringen. Weiterhin werden Server, wie schon erwähnt, mit Virtualisierung eingesetzt. Dadurch steigt die Bandbreitenanforderung im Mittel massiv an. Damit sind die Ports typischerweise höher ausgelastet als im 1-GBit/s-Bereich, wo meist Server nur eine einzige Applikation hosten. Wie ebenfalls schon angedeutet wird zusätzlich noch der Storage-Anschluss eingespart und über iSCSI und NFS – und damit über Ethernet – mit angebunden. FCoE ist nach dem Hype schon im Tal der Tränen angekommen, inwieweit es sich erholt, wird insbesondere durch die Funktion, Verfügbarkeit und Betreibbarkeit von Data-Center-Bridging (DCB) in größeren Netzen bestimmt werden. Eine derartige Konsolidierung wird zwischen 2013 und 2016 wohl erfolgen. Weiterhin müssen Serversysteme wesentliche größere TCP-Window-Sizes verwenden, um einen entsprechenden Durchsatz zu erzielen. Damit erhöht sich die Sensibilität was Paketverlus-te angeht, die dann zu dramatischen Performance-Einbrüchen führen können.

Weiterhin ist zu beachten, dass es sowohl die Server- als auch die Storage-Virtualisierung (am besten noch im Scale-Out-Design) nahezu unmöglich macht, Verkehrsflüsse vorherzusagen. Im laufenden Betrieb werden Ressourcen hinzugefügt oder weggenommen beziehungsweise verschoben um ein Failover, Maintenance oder eine optimale Auslastung der physischen Ressourcen zu erreichen. Das sind ja auch die großen Vorteile der Virtualisierung.

Anbieter zum Thema

zu Matchmaker+

  1. Alternativen im Server-Access
  2. ToR oder EoR
  3. Überbuchung und Durchsatz
  4. Latenz und Topologie
  5. Kosten

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Server, Datacenter

Matchmaker+