Effizienz im Netz durch I/O-Virtualisierung

SAN trifft LAN

17. Dezember 2010, 6:00 Uhr | Axel Simon, Program Manager bei HP Networking

Neue Server-Generationen und dynamische Storage-Konzepte erzeugen in Kombination mit der Virtualisierung eine bisher nicht gekannte Komplexität bei der Bereitstellung von Applikationen. Dabei laufen häufig die Kosten im Netzwerk- und Storage-Bereich aus dem Ruder. Gefordert sind deshalb dynamische Netzwerkanschlüsse, die sich kostengünstig betreiben lassen.

Im Markt herrschen momentan zwei Verfahren zur Anbindung der Server-Blades an die Außenwelt vor:
integrierte Blade-Switches und so genannte Pass-Through-Module. Die Pass-Through-Module sind sehr
simpel aufgebaut und verbinden die Server-Blades direkt mit der restlichen Infrastruktur. Der
Nachteil dieser Lösung besteht darin, dass viele und teure Kabel zur Anbindung erforderlich sind
und die Komplexität des Gesamtsystems dadurch ansteigt. In der Praxis erweisen sich die
Pass-Through-Lösungen als sehr teuer, da für jede Anbindung ein Kabel und ein dedizierter
Switch-Port zu beschaffen sind.

Die integrierten Blade-Switches reduzieren zwar die Anzahl der benötigten Kabel, aber erfordern
von den SAN- und LAN-Administratoren, zusätzliche Netzwerkaufgaben zu erledigen. Der
Systemadministrator kann im Betrieb zwar eine virtuelle Maschine (VM) in wenigen Minuten in Betrieb
nehmen, aber die notwendige Storage- und Netzkonfigurationen sind kompliziert und müssen manuell
abgestimmt werden. Das große Defizit vorherrschender Netzwerkstrukturen besteht aber in der
Tatsache, dass diese im Vergleich zur Storage- und Server-Welt starrer aufgebaut sind. Aus diesem
Grund muss der Administrator der virtuellen Systeme auch jene IT-Fachkräfte ins Boot holen, die
sich um die Speichersysteme und Datennetze kümmern. Dies erfordert eine sorgfältige Planung und
kostet in allen beteiligten Abteilungen jede Menge Arbeitszeit.

Netzwerk muss agiler werden

Ein Grund dafür ist die Trennung von SAN und LAN. In heutigen Rechenzentren benutzen Unternehmen
üblicherweise Ethernet für die TCP/IP-Netze und Fibre Channel für das SAN. Unternehmen
implementieren SANs für Anwendungen wie Booting, Mail-Server, File-Server oder große Datenbanken,
die im Gegensatz zu LANs den Zugriff auf Block-I/O benötigen. Dieser Bereich ist im Umbruch, und es
konkurrieren die Verfahren FCoE (Fibre Channel over Ethernet) und iSCSI um die Ablöse der
Fibre-Channel-Technik im Rechenzentrum. Noch basieren aber viele RZ-Netze auf einem „klassischen“
Setup: Die IT-Organisation nutzt Fibre Channel für das SAN, Ethernet im LAN (sowohl für
Server-Interconnects als auch für die Server-Client-Kommunikation).

Für eine dynamisierte IT muss aber das Netzwerk ebenso agil wie die Server werden. Da die
Verbindung zu den Datenspeichern und Anwendern über die Netzschnittstellen erfolgt, gilt es, die
SAN/LAN-Verbindungen ebenfalls zu automatisieren. Eine Voraussetzung dafür ist die
I/O-Virtualisierung, die auch den Grund für die Konvergenz von Storage- und Datennetzwerken
legt.

Üblicherweise läuft der Verkehr zwischen den VMs sowie ins physische LAN über einen virtuellen
Switch. Dieser ist Teil des Hypervisors. Die zunehmende Virtualisierungsdichte erhöht jedoch den
durch den virtuellen Switch generierten Overhead. Außerdem stellt ein virtueller Switch aus Sicht
der physischen LAN-Switches einen Fremdkörper im Netz dar, der nicht in der Lage ist, die gleichen
Policies (Filter, Sicherheit, Access-Control-Listen etc.) anzuwenden wie die physischen Switches.
Auch führt ein solcher Lösungsansatz zu einer Dopplung bestimmter Verwaltungsaufgaben. Da die
Switches bereits über die notwendige Intelligenz verfügen, ist es wenig sinnvoll, deren Funktionen
und Dienste an anderer Stelle noch einmal zu erbringen.

Virtueller Netzwerk-Port

Ein typischer virtueller Server wurde bisher im Durchschnitt mit sechs bis acht Netzwerkkarten
(Network Interface Cards/NICs oder Host Bus Adapters/HBAs) bestückt. Da diese Links mithilfe der
entsprechenden Kabel an die physischen Switches angebunden werden, führt dies zu erheblichen Kosten
für die Netzbereitstellung. Außerdem zieht jede Veränderung am virtuellen Server eine physische
Veränderung im SAN oder LAN nach sich. Nutzt man stattdessen einen virtuellen Netzwerk-Port, lässt
sich dieser in individuelle Netzwerkverbindungen aufteilen. Der Vorteil der virtuellen
Netzwerkverbindungen besteht darin, dass Veränderungen auf der Server-Seite das Netzwerk nicht mehr
beeinflussen. Dadurch gehört auch das manuelle Patchen von Verbindung der Vergangenheit an,
zentralisierte Konfigurationen lösen es ab. Die Konfigurationen werden in Profilen hinterlegt und
automatisiert angewendet – gerade so, wie es die virtuellen Strukturen benötigen. Statt getrennte
HBAs und NICs zu bestücken, ist heute nur noch eine universelle I/O-Karte (Converged Network
Adapter, CNA) erforderlich.

Traditionell werden Storage-Ressourcen direkt an einen physischen HBA gebunden. Deshalb sind
diese nicht mit den üblichen SAN-Administrationswerkzeugen einer virtuellen Maschine zuzuordnen.
Der flexible Betrieb der Server-Systeme erfordert jedoch, dass die Bindung an einen HBA World Wide
Name (WWN) auf einem physischen Server aufgehoben wird und jede virtuelle Maschine über ihren
universellen WWN verfügt. Dieser muss auch dann erhalten bleiben, wenn die virtuelle Maschine
dynamisch auf einen anderen Server verschoben wird.

Dank dieser Struktur gelangt der Datenverkehr, der zwischen Blades innerhalb der Enclosure
auftritt, nicht nach außen und benötigt keine externe Netzwerktechnik. Darüber hinaus reduziert
sich aufgrund der flexibleren Zuweisung der Bandbreite die Anzahl der I/O-Anschlüsse. Dies geht mit
reduziertem Bedarf an Verkabelung und externen Netzwerkbaugruppen einher. Das virtuelle
I/O-Interface lässt sich in mehrere Kanäle aufteilen. Diese bestehen aus flexiblen Ports zum
individuellen Anschluss von 10GbE beziehungsweise 8G Fibre Channel.

Schnelles Ändern von Netzverbindungen

Durch die Abstraktion der I/O-Verbindung entsteht ein Pool an Server-Edge-Verbindungen, die
gegenüber den externen SANs und LANs wie reale NICs und HBAs wirken. Dadurch ist der
Server-Administrator in der Lage, sowohl die Server-Blades als auch die zugehörigen Verbindungen zu
managen und diese bei Bedarf zu verschieben. Die individuellen MAC-Adressen (Media Access Control)
und die World Wide Names der Server bleiben dabei erhalten. Gleichzeitig erhöht die Virtualisierung
der I/O-Verbindungen innerhalb des Server-Racks die Verfügbarkeit der Systeme.

Durch die I/O-Virtualisierung lassen sich die einzelnen Server individuell mit NICs, HBAs oder
CNAs bestücken. Die Gesamtkapazität des virtuellen Adapters lässt sich in 100-MBit-Schritten
passgenau auf die physischen Ports aufteilen. Damit erhält jeder Server oder Dienst genau die
Bandbreite, die er für die Durchführung seiner Arbeit benötigt, um eine Überdimensionierung zu
vermeiden. Beim Boot von iSCSI oder FC-SAN werden die Server von einem zentralen Speicher-Pool
gestartet. Die Server benötigen dabei kein lokales Boot-Image. Dies vereinfacht insbesondere
Disaster-Recovery-Abläufe und den Failover von IT-Diensten.

Für den Betrieb müssen die virtuellen Netz-Interfaces natürlich in ein umfassendes
System-Management eingebunden sein. Nur so lassen sich größere Blade- oder Server-Systeme effizient
betreiben. Eine zentrale Datenbank verwaltet alle verfügbaren MAC-Adressen und WWNs und vermeidet
damit das Risiko von Adresskonflikten. Die Netzverbindungen verschiebt der Administrator dabei
einzeln oder in Gruppen per Mausklick zwischen virtuellen Servern.

Schrittweise Migration

Die mittelfristige Ausrichtung der Kommunikation wird in eine konvergente Infrastruktur münden,
denn die Grenze zwischen SAN und LAN verschwimmt immer mehr. Dafür sprechen sowohl wirtschaftliche
als auch betriebliche Aspekte, beispielsweise durch die Vereinheitlichung der verwendeten
Komponenten – die dedizierte FC-Infrastruktur kann entfallen – oder einen reduzierten
Trainingsaufwand für das Personal.

Die vollständige Konvergenz des Storage- und Datennetzwerks in einem Schritt ist nicht
erforderlich und auch nicht wirtschaftlich sinnvoll. Die Migration sollte vielmehr schrittweise
erfolgen. Beispielsweise überbrückt die FCoE-Technik Stand heute nur einen Hop zuverlässig. Diese
Limitierung auf eine Netzkaskade kann in Zukunft auf eine mehrstufige FCoE-Netzstruktur ausgedehnt
werden. Voraussetzung dafür ist ein verlustfreies Ethernet (Converged Enhanced Ethernet, CEE) und
die Implementierung der entsprechenden Standards (beispielsweise Priority-Based Flow Control gemäß
IEEE 802.1Qbb). An den entsprechenden Standards arbeiten die Standardisierungsgremien mit
Hochdruck.

Für die Unternehmen steht jedoch bei allen Entscheidungen die Investitionssicherheit im
Vordergrund. Um diese zu gewährleisten, muss sich auch in einer virtualisierten Welt eine
Systemarchitektur an gültigen Standards orientieren. Eine flexible Systemarchitektur und die
I/O-Virtualisierung ermöglichen dabei eine schrittweise Umstellung auf neue oder erweiterte
Standards. Daher ist es nicht notwendig, die gesamte Kommunikationsstrecke gleichzeitig
umzustellen. Die beschriebene I/O-Virtualisierung senkt bereits heute die Kosten, sorgt aber
gleichzeitig für Zukunftssicherheit.

Fazit

Die Vorzüge der Virtualisierung sind unbestritten. Sie ermöglicht eine flexible Bereitstellung
der IT und nutzt deren Ressourcen optimal aus. Das Netzwerk muss dabei Bestandteil der
Rechenzentrumsstrategie sein. Virtuelle Controller vereinheitlichen das Ressourcen-Management und
sorgen für gleiche Security-Levels über virtuelle und physische Umgebungen hinweg.

transfer

transfer

transfer


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+