Jede wirkliche Innovation fängt mit einer guten Idee an - ob es sich nun um einen neuen Geschäftsprozess, einen einfallsreichen, bislang konkurrenzlosen Service oder ein neuartiges Produkt handelt. Setzt der Initiator seinen Einfall jedoch nicht schnell genug und kostengünstig praktisch um, bleibt es oft bei einem Geistesblitz, der nie zur Realität wird. Dies gilt auch für die Idee, das Rechenzentrum zu einer stärker virtualisierten Umgebung umzubauen, die neue Applikationen erheblich schneller bereitstellen kann.Dass die Idee des virtualisieren RZs tatsächlich funktioniert, liegt ausschließlich an aktuellen Entwicklungen in der Server-, Speicher- und Netzwerktechnik, die das Virtualisierungskonzept über alle Technikdomänen hinweg realisierbar gemacht haben. So steigt jedes Jahr gemäß Moore?s Law die Kapazität der aktuellen Server. Derzeit haben sie acht bis 16 Core-Prozessoren, demnächst bereits 24 bis 32 Cores, mit denen sie mehr virtuelle Maschinen unterstützen können als je zuvor. Flash-Speicher in Form von SSDs (Solid State Disks) bietet Anwendungen über Ethernet-Schnittstellen erheblich schnelleren Zugriff auf weitere dynamische Speicherschichten. Superschnelle Netzwerke mit 10 GBit/s, bald auch 40 und 100 GBit/s Geschwindigkeit verbinden das Gesamtsystem zu einer agilen Umgebung, in der sich Server, Applikationen und Daten abhängig vom Bedarf hin- und herschieben lassen. Früher waren Netze und Server weit weniger effizient und langsamer. Auf jedem Server lief eine Applikation. War sie nicht aktiv, passierte gar nichts - der Server stand. Server arbeiteten aus diesem Grund höchst ineffektiv, manche nutzten nur fünf Prozent ihrer Kapazität. Daraus resultierte auch ein relativ geringer Traffic für das Netzwerk. Weil zudem jeder Server über diverse Netze und Schnittstellenkarten verfügte, darunter redundante zu den lokalen Datenspeichern und Speichersystemen, ließ auch die Effizienz des Gesamtsystems erheblich zu wünschen übrig. Mithilfe der Virtualisierung können mehrere Applikationen parallel laufen, was automatisch zu einer weitaus höheren Server-Auslastung führt. Multiplexing-Technik für 10-GBit/s-Ethernet lasten das Netzwerk besser aus als sieben 1-GBit/s-Schnittstellenkarten in jedem Server. Mit Multiplexing, wie es neuere Netzwerkkarten bieten, braucht man für die gleiche Transportkapazität vielleicht nur zwei 10-GBit/s-Karten. Jede dieser Karten befördert unabhängig voneinander mehrere Datenkanäle und dazu auch noch Speicher- und Kontrolldaten. So steigt auch die Auslastung des Netzes erheblich. Komplexe RZs erzeugen Messprobleme Leider kann man kein voll funktionsfähiges Rechenzentrum aus dem Katalog kaufen. Immer bedeutet der Aufbau eines RZs umfangreiche Planungen, die sorgfältige Evaluierung von Technikalternativen, Tests und nochmalige Tests. Vielfältige Fragen sind zu beantworten, noch bevor die erste Ausschreibung anläuft: Welcher Hypervisor passt am besten? Auf welcher Plattform soll er laufen? Wie ist das mehrschichtige Speichersystem aufgebaut und wie das Netzwerk? Wie verwaltet und steuert man den gesamten Prozess am besten? Erst wenn all dies entschieden ist, beginnt die eigentliche Produktauswahl. Das Management der Infrastruktur ist meist ein besonders herausforderndes Thema, weil so viele Parameter zu überwachen sind: Leisten die Server das, was sie sollen? Gibt es Netzwerkprobleme? Welche Daten müssen aus Compliance-Gründen in Berichten zusammengefasst sein? Alle diese Fragen brauchen eine Antwort. Datenmassen überfordern Monitoring-Tools Hat man alle erforderlichen Informationen gesammelt? Muss man das Netzwerk und die Infrastruktur visualisieren? Früher war nur ein Protokollanalysator an einen Mirrorport angeschlossen. Doch heute gibt es viele Geräte, die den Verkehrsfluss im Netz analysieren. Die Daten müssen möglichst effektiv zu den Monitoring-Tools gelangen, denn es wäre fatal, irgendwelche wichtigen Informationen zu verlieren. Dies bedeutet, dass die betreffenden Daten nicht über das normale Datennetzwerk fließen dürfen, denn vielleicht ist dies ja die Ursache der Störung. Verbreitete Rechenzentrumstechnik wie Virtualisierung und Multikanal-10-GBit/s-Karten können viel Monitoring-Traffic aus unterschiedlichen Quellen wie Mirrorports oder Ähnlichem erzeugen. Dies birgt das Risiko, dass die Masse der erzeugten Daten jedes Monitoring-Tool überfordert ein allzu verbreitetes Problem in expandierenden Rechenzentren. Es gibt unterschiedliche Lösungsansätze, um mit dieser Herausforderung fertig zu werden: Möglich sind beispielsweise schnellere Schnittstellen für die Tools oder mehr Tools - alles teuer und ineffizient. Eine andere Alternative sind Ethernet-Switches mit komplexen Filterfunktionen, mit denen die Techniker versuchen, den zu messenden Verkehr zu isolieren. Dieser Prozess ist jedoch leider kompliziert in der Implementierung, skaliert nicht und ist daher langfristig keine Lösung. Ist eine genaue Visualisierung des Netzverkehrs gewünscht, besteht die eigentliche Herausforderung darin, den Datenverkehr in einer möglichst einfach zu verarbeitenden Form in die Monitoring-Werkzeuge einzuspeisen. Dies überfordert die Tools nicht, und gleichzeitig ist sichergestellt, dass sie nur die Daten erhalten, die sie brauchen. Denn wenn die Tools mit den eingespeisten Informationsmengen nicht fertig werden, ist nicht visualisierbar, was innerhalb des Systems geschieht. Filterfunktionen fürs Monitoring-Netz Nachdem die Techniker dieses Problem vor einigen Jahren erkannt haben, ist eine neue Lösung entstanden. Die Idee dazu war relativ einfach: Man baut ein Netzwerk, das ausschließlich alle Monitoring-Daten transportiert und zu den Tools bringt. Dies klingt jedoch einfacher, als es ist. Denn an verschiedenen Punkten des Netzwerks leitet das System möglicherweise denselben Verkehr ins Monitoring-Netz um. Außerdem handelt es sich beim Monitoring-Traffic um höchst unterschiedliche Datenverkehrstypen, von denen nicht alle für jedes Werkzeug gleichermaßen interessant sind. Das Monitoring-Netz muss also den Datenverkehr deduplizieren und sortieren. Sinnvollerweise fügt man in diesem Zusammenhang auch einen Zeitstempel hinzu, stellt fest von welchem Port der Verkehr ausging, sortiert ihn und bearbeitet ihn auf verschiedene Weise so nach, dass die anschließende Arbeit der Tools einfacher wird: Die Visibility Fabric ist geboren. Ein verteiltes Netzwerk, das dem richtigen Tool die richtigen Daten zur richtigen Zeit und im richtigen Format liefert. So wird es viel günstiger und effizienter, den Netzwerkverkehr an einem zentralen Ort innerhalb des Systems zu visualisieren. Daraus ergeben sich für die Zukunft viele Verbesserungsmöglichkeiten. Neue Services sind erheblich schneller implementierbar. Denn mehr Sichtbarkeit bedeutet, dass jegliches neue Equipment erheblich leichter evaluierbar ist. Entsteht mehr Verkehr und steigen die Netzwerkgeschwindigkeiten, wächst die Visibility Fabric einfach mit. Sie eignet sich deshalb auch für die größten Netzwerkimplementierungen.