Virtualisierung, Rich-Multimedia-Anwendungen und die Nachfrage nach größerer Effizienz und Kosteneinsparungen treiben die nächste Welle der Netzwerkaufrüstung voran. Wenn sie dieses Projekt in Angriff nehmen, müssen Verantwortliche ermitteln, welche Faktoren beim Aufbau von Netzwerkinfrastrukturen am wichtigsten sind. Sie sollen gleichzeitig schneller, zuverlässiger, leichter zu verwalten und kostengünstiger als bisher sein. Auch die Qualifikation der Mitarbeiter gehört in diese Überlegungen.
Der Umstieg auf moderne und leistungsstärkere Netzwerkplattformen mit höherer Dichte ist
zusammen mit Techniken wie Virtualisierung eine attraktive Lösung. Dies gilt wegen der sich daraus
ergebenden Einsparungen von 30 bis 40 Prozent bei den Infrastrukturkosten – insbesondere in Zeiten
knapper Budgets. Ein beträchtliches Potenzial ergibt sich zum Beispiel daraus, dass moderne
Switching-Infrastrukturen nur ein Viertel des Stroms verbrauchen, den entsprechende Produkte noch
vor wenigen Jahren benötigten – und gleichzeitig wesentlich höhere Leistung bieten.
Genauso wichtig ist jedoch die Tatsache, dass die Investitionen in solche Infrastrukturen die
Unternehmen auf den wirtschaftlichen Wiederaufschwung vorbereiten. Eine vorwärts gerichtete
Netzwerkinfrastruktur wird dem Unternehmen wertvolle Dienste leisten, wenn die Geschäfte wieder
besser gehen und die Anforderungen an das Netzwerk steigen. IT-Manager sollten also die folgenden
Punkte berücksichtigen, wenn sie eine leistungsstarke Netzwerkplattform aufbauen wollen, die dem
Unternehmen jetzt und in der nahen Zukunft Vorteile bringen soll.
Schnellere Verbindungen
Vor nur ein oder zwei Jahren kamen 10GbE-Verbindungen hauptsächlich für
Switch-to-Switch-Verbindungen innerhalb des Rechenzentrums oder für sehr teure spezielle
Server-Cluster zum Einsatz. Aber nachdem High-Density Multicore Processing – von den heutigen vier
bis acht Cores in einem Prozessor bis hin zu 32 in naher Zukunft – das Tor für immer mehr virtuelle
Maschinen auf marktüblichen, leistungsstarken Nodes geöffnet hat, werden die I/O-Anforderungen sehr
schnell die 1GbE-Durchsätze auf dem Access Layer überschreiten.
Die Effizienz von Multicore Processing – mit oder ohne Virtualisierung – sinkt, wenn
Netzwerkschnittstellen auf 1GbE begrenzt sind. Aber 1GbE-Links mit immer mehr virtuellen
Anwendungen (deren interne Datenströme die Geschwindigkeit dieser Links überschreiten) zu koppeln,
führt lediglich zu Oversubscription bei den Ressourcen und verschwendeter Leistung. Eine
Möglichkeit, dieses Problem zu beheben, ist der Einsatz von 10GbE-Verbindungen an den Rändern des
Netzwerks. Glücklicherweise ist anscheinend noch etwas Zeit für die Planung effektiver,
großflächiger Rollouts der 10GbE-Server-Adapter und Access Ports am Rande des Netzwerks. Dies liegt
teilweise daran, dass im Bereich der Virtualisierung noch einiges an Arbeit zu tun ist, um die
Administration und Mobilität der virtuellen Maschinen reibungsloser zu gestalten. Die gute
Nachricht lautet: Der Preis für 10GbE Connectivity ist bald kein Hindernis mehr. Die Kosten für
leistungsstärkere Server sinken, und Unternehmen wie zum Beispiel Brocade entwickeln so genannte
Top-of-Rack-10-GbE-Switches mit hoher Port-Dichte und Pro-Port-Kosten von etwa 500 Dollar.
Bestimmte Probleme sollte man bei der Planung des Umstiegs auf 10GbE vom Edge bis zum Core
jedoch nicht außer Acht lassen. Das Letzte, was Verantwortliche bei einem Umstieg auf 10GbE
erwarten, ist eine Infrastruktur, die nicht die erwartete Performance mit Leitungsgeschwindigkeit
liefert. Einige Switch-Produkte bieten angeblich sechzehn 10GbE-Ports; in Summe läuft jeder Port
jedoch nur mit 1,5 GBit/s. Es ist schlicht nicht genug Kapazität vorhanden, um Vollgas zu geben.
Ein solcher Ansatz verlegt den Engpass lediglich weg vom Server in das Herz des Netzwerks.
Ein weiterer wichtiger Faktur ist die Zukunftssicherheit einer Technik, die kommende
Verbindungsstandards wie 100GbE unterstützt – man sollte vorsichtig sein und Produkte meiden, die
überstürzt mit eigenen, nicht den Standards entsprechenden Implementierungen auf den Markt kommen.
Switches und Router, die im Vorgriff auf die Veröffentlichung des IEEE 100GbE Standards entwickelt
sind, können auf höhere Leistung skalieren, ohne Karten entfernen zu müssen oder Komponenten
auszutauschen.
Fibre Channel
Das Thema Durchsatz mit Leitungsgeschwindigkeit ist auch für Fibre-Channel-Speichernetzwerke
wichtig, um ständig steigenden Anforderungen gerecht zu werden. Verantwortliche sollten sich für
SAN-Switches mit hoher Port-Dichte von Herstellern entscheiden, die heute echte
8-GBit/s-Verbindungen unterstützen und einen klaren Plan für den Umstieg auf 16-GBit/s-Verbindungen
haben. Ein weiterer wichtiger Punkt: Viele veraltete Server, auf denen Standalone-Anwendungen
laufen, nutzen nach wie vor 1GbE-Verbindungen, gute Switch-Lösungen sind daher darauf ausgelegt,
Server-Zugriffe sowohl mit 10GbE als auch mit 1GbE vorzunehmen. Dies ist – ebenso wie die Strategie
der strikten Einhaltung offener Schnittstellen und Industriestandards – eine wichtige Hilfe dabei,
Investitionen in vorhandene IT-Infrastrukturen zu sichern.
Praktikabler Ansatz für Konvergenz
Utopia ist eine Welt, in der Services – von Voice über Video zu Block- und Dateitransfers – im
Multiplex-Verfahren auf einem einzigen Transportmittel und in einem einzigen Protokoll stattfinden.
In der realen Welt von heute dagegen herrschen im Rechenzentrum sowohl das Fibre-Channel-Protokoll
für Speichernetzwerke als auch IP für Datennetzwerke. Beide sind daraufhin optimiert, eine
bestimmte Art von Datenverkehr zu übertragen, und beide verfügen über eine breite installierte
Basis. Dennoch sollten IT-Manager damit beginnen, ihre Unternehmen auf die langfristige Vision
einer konvergenten Infrastruktur vorzubereiten. Sie sollten beispielsweise mit dem neuen
CEE-Protokoll (Converged Enhanced Ethernet) beschäftigen, das den Speicherverkehr übertragen und
gleichzeitig die Datenintegrität bewahren kann. Auf der oberen Schicht von CEE kann Native FC
laufen, das den größten Teil der in Blöcke aufgeteilten Speicherumgebung steuert, indem das neue
Fibre Channel over Ethernet (FCoE) Encapsulation Protocol zum Einsatz kommt. Zusätzlich lässt sich "
Native IP“ einsetzen.
Wenn sich Netzwerke weiterentwickeln, um die Anforderungen dynamischer Rechenzentren zu
erfüllen, müssen IT-Manager in die Fähigkeiten ihrer Mitarbeiter investieren, um eine optimale
Leistung zu gewährleisten. Insbesondere gilt es, daran zu denken, Skills innerhalb der Mitarbeiter
breiter zu streuen, wenn sich eine physische Säulenstruktur zu integrierten Umgebungen
weiterentwickelt, die von Virtualisierung und Konvergenz bestimmt sind.
Neue Skills
Den IT-Mitarbeitern muss klar sein, dass sie ein gemeinsames Ziel haben, nämlich
unternehmenskritische Anwendungen nahtlos zu unterstützen. Die Mitarbeiter der IT-Abteilungen
können sich nicht länger in ihren jeweiligen Silos verschanzen, sondern müssen sich auch damit
auskennen, was jenseits ihres Tellerrands passiert.
Wenn zum Beispiel Virtual-Switching-Software auf dem Server installiert ist, um den Datenverkehr
zwischen den VMs zu organisieren, müssen die Server-Administratoren sicherstellen, dass Änderungen
auf dem Server keine negativen Auswirkungen auf das Netzwerk haben. Professional Services
Consultants können bei diesem gegenseitigen Training helfen. Hersteller wie Brocade stellen dazu
beispielsweise so genannte Resident Consultants zur Verfügung. Deren Zugriff auf eine große
Wissensbasis, strategische Partnerschaften und Best Practices des Anbieters sollen IT-Managern
dabei helfen, die Skills der vorhandenen Mitarbeiter in Schulungen vor Ort zu verbessern.
Das Endergebnis des gesamten Engagements wird den Aufwand rechtfertigen. Unternehmen werden
nicht nur die Technik implementiert haben, die sie mit einer leistungsstarken und sehr
zuverlässigen Infrastruktur vorwärts bringt; sie werden auch die Produktivität der Mitarbeiter, die
für den Support dieser Infrastruktur zuständig sind, maximieren. Die Investitionen in Technik und
Mitarbeiter werden sich sowohl in einem sofortigen als auch einem langfristigen
Return-on-Investment auszahlen.