Datacenter-Analyse

Akkurates Netzmonitoring trotz Datenflut

10. Januar 2014, 10:50 Uhr | Trevor Dearing, EMEA Marketing Director, Gigamon
Herkömmliche Ansätze bei der Analyse des Netzwerkverkehrs wie separate Monitoring-Netzwerke oder der exzessive Sondeneinsatz haben spezifische Schwächen und werden mit den explodierenden Datenmassen nur schlecht fertig.
© Gigamon

Mit der Zunahme digitaler Kommunikation steigt auch die Datenlast der Netze. Infrastrukturen und die ihnen zugeordneten Monitoring-Systeme müssen damit erst einmal fertig werden. Mit konventionellen Ansätzen ist das oft kaum noch zu schaffen. Neue Technologieansätze setzen auf eine Vorfilterung des Datenverkehrs.

Big-Data, wachsende Mobilität, Virtualisierung, Cloud-Computing und die Integration zwischen den einst getrennten Infrastrukturen für Speicherzugriffe und Datenverkehr: All dies erhöht massiv die Menge der Daten, die durch die Netze fließen. Gleichzeitig steigen die Anforderungen an die Netzwerkinfrastruktur. Sie soll gleichzeitig extrem leistungsfähig, hochstabil, permanent verfügbar und möglichst sicher sein. Das alles stellt die Netzwerkadministratoren vor schwer lösbare Aufgaben. Es sind also veränderte Ansätze nötig.

Das gilt auch für das Monitoring des Netzwerks mit seinen vielfältigen Facetten: Gemessen wird die physische Umgebung, etwa die Gerätetemperatur der Core-Switches/Router oder die Luftfeuchtigkeit im Rechenzentrum, wo ToR- (Top-of-Rack-) oder EoR- (End-of-Row-)Switches die virtualisierten Server anbinden. Andere Tools befassen sich mit der Leistung des Netzes: Sie kontrollieren zum Beispiel die Geschwindigkeit der einzelnen Paketströme und die Antwortzeiten spezifischer Applikationen oder detektieren schnell und ortsgenau Fehler. Wieder andere dienen der finanziellen und rechtlichen Compliance, etwa indem sie Nutzlasten verursacher-gerecht zuordnen oder digitale Angriffe detektieren, analysieren und frühzeitig abwehren, damit Daten nicht in falsche Hände kommen.

Das Spektrum der Mess- und Monitoring-Applikation ist naturgemäß umfangreich. Es beginnt bei den Werkzeugen zum Geräte- und Netzmanagement, die von den Geräteherstellern mitgeliefert werden. Dazu kommen meist zahlreiche separat erworbene Tools. Gängig sind beispielsweise Analysatoren, welche die Applikationsleistung, die Netzwerkprotokolle, den Web-Verkehr oder die Web-Leistung aus der Perspektive des Endanwenders überprüfen, Werkzeuge, die Fehler analysieren, Eindringversuchen vorbeugen und sie abwehren (IDS/IPS), Datenverluste verhindern sollen und so weiter. Häufig laufen in demselben Netz mehrere Versionen desselben Tools, was die Situation weiter kompliziert. Monitoring-Software muss in der Regel mit Netzwerkgeschwindigkeiten zwischen 100 MBit/s und 10 GBit/s, demnächst sogar 40 GBit/s, oft auf mehreren Ports und Verbindungen gleichzeitig, und den damit verbundenen hohen Durchsätzen umgehen.

Anbieter zum Thema

zu Matchmaker+

  1. Akkurates Netzmonitoring trotz Datenflut
  2. Tools ertrinken in Daten
  3. Eine Fabric für die Monitoring-Daten

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Server, Datacenter

Matchmaker+