Kommentar: Netzwerkmanagement

Regelwerk zur Netzwerk-Verwaltung

8. Oktober 2015, 15:12 Uhr | Mathias Hein, freier Consultant in Neuburg an der Donau
Kolumnist: Mathias Hein
© funkschau

Alle komplexen Systeme verfügen über viele verschiedene Möglichkeiten, wie diese konfiguriert werden können. Dadurch erhält man Systeme mit jeweils fast gleichen funktionellen Eigenschaften. Allerdings sind einige dieser Konfigurationen leichter zu erstellen, während andere Konfigurationen einfacher zu bedienen sind. Die Aufgabe für den Netzadministrator besteht im Finden der optimalen Konfiguration. Dies gilt besonders bei einem komplexen System, wie es das Netzwerkmanagement darstellt.

Die in der Praxis etablierten Richtlinien für Netzwerkmanagementsysteme (NMS) helfen uns beim Finden der optimalen Systemkonfiguration. Stehen solche Richtlinien nicht zur Verfügung, dann muss viel Aufwand für die kontinuierliche Optimierung und Verbesserung der Systeme aufgewandt werden. Ich kenne NMS-Implementierungen die sich dauerhaft im "Feintuning-Modus“ befinden und niemals in einen stabilen Betriebsmodus übergehen. In einigen Fällen findet trotz eines modernen NMS keine Automatisierung im Netzwerk statt und alle Änderungen müssen manuell eingepflegt werden. Das richtige Maß an Automatisierung sorgt im Netzwerk für den kostengünstigen Betrieb und das schnelle Auffinden von Problemen.

Die NMS-Richtlinien sagen uns, welche Daten das System zu sammeln hat, wie die Daten zu verwenden sind und definieren die Menge der vom System ausgelösten Aktionen. Anhand dieser Regeln können wir unsere Netzwerkmanagement-Systeme konfigurieren, die gewonnen Rohdaten anschließend einer eingehenden Analyse unterziehen und die verwertbare Informationen anschließend bewerten beziehungsweise sammeln.

NMS-Richtlinien

In der IT-Abteilung müssen die Netzwerkmanagement-Richtlinien zur individuellen Datensammlung festgelegt werden. Dieses Regelwerk ist als Top-Down-Prozess zu verstehen, denn dieser leitet die Anforderungen von Applikationen ab. Aus den an die Applikationen und Services gestellten Anforderungen definieren sich im zweiten Schritt die Anforderungen an das Netzwerk beziehungsweise die Serversysteme und die Qualität und Quantität der erforderlichen Netzwerkdienste. Beim Top-Down-Ansatz wird langsam und stetig geplant und versucht, mögliche zukünftige Probleme von vornherein zu erkennen und in ein Gesamtkonzept mit einzubeziehen. Durch eine detaillierte Anforderungsanalyse, die einem globalen Konzept vorausgeht, erhöht sich zwar zwangsläufig der Aufwand, der in die Realisierung eines Netzes gesteckt werden muss. Ein in allen Details definiertes Konzept zahlt sich jedoch langfristig aus, da bei der Umsetzung der Ziele viel weniger Probleme entstehen.

Ein fester und wesentlicher Bestandteil eines IT-Konzepts ist das Monitoring (präventive Überwachung), das Troubleshooting (Strategie zur Fehlerermittlung) und das Netzwerkmanagement. Diese Aufgaben müssen deshalb als umfassende unternehmerische, organisatorische und technische Maßnahmen begriffen werden.

Die Zielgröße des IT-Management ist die Erfüllung der Erwartungshaltung des Nutzers/Kunden. Die Erwartung des Nutzers/Kunden bezieht sich in der Regel auf die Qualität der Verarbeitungs- beziehungsweise der Geschäftsprozesse und ist daher nicht abhängig von der konkreten technischen Architektur der betreffenden IT-Lösung. Die Erwartungshaltung und die daraus abgeleiteten Key-Performance-Indikatoren (KPI) werden jedoch im wesentlich von der technischen Realisierung einer Lösung geprägt. Ausgewählte KPIs bilden häufig die Grundlage einer vertraglichen Zusammenarbeit zwischen Anbietern und resultieren in so genannten Service-Level-Agreements. Für das Monitoring und die daraus resultierenden messbaren KPIs gibt es keine klar definierten Methoden. Es hat sich in der IT-Industrie eher ein Best-Practice-Ansatz durchgesetzt. Die praktische Umsetzung der SLA sieht daher in jedem Unternehmen sehr unterschiedlich aus.

Zum Beispiel kann die Schnittstellenauslastung überwacht werden, so dass wir eine Vorhersage erhalten, wann das Verkehrsaufkommen einen bestimmten Wert übersteigt. Diese Überschreitung signalisiert der IT-Abteilung, dass der betreffende Link eventuell einem Upgrade unterzogen werden muss. Die vom NMS gesammelten Datensätze zu einem Link, sagen uns, was die Überschreitung des Schwellenwerts verursacht hat: Ob es sich um eine temporäre Leistungsüberschreitung handelt oder ob der Link in zwei bis drei Monaten vollkommen verstopft sein wird.

In der Praxis konzentriere ich mich auf die vom NMS gesammelten Schnittstellenfehler und die Statistiken zu Paketverlusten. Diese Werte repräsentieren den Umstand, dass etwas nicht richtig im Netzwerk funktioniert. Anhand dieser Statistiken identifiziere ich auch diejenigen Schnittstellen, die Probleme haben oder permanent überlastet sind. Auch der Zeitpunkt des Auftretens eines Problems und das Ausmaß der aktuellen Überlastung sind wichtig für die Entscheidung, ob und welche weitere Untersuchungen gerechtfertigt sind.

Eine wesentliche Frage des NMS-Regelwerks dreht sich darum, ob die Performance-Daten im Edge-Bereich oder im Core-Bereich des Netzwerks gesammelt werden. Oder soll nur die Performance der Router- und Switch-Verbindungen und einige ausgewählte Server-Anbindungen überwacht werden? Meist wird aus Gründen eines limitierten Budgets auf das Überwachen und das Monitoring des Edge-Bereichs verzichtet. In diesem Fall ist es notwendig, die Leistungs- und Datenerhebung auf die wesentlichen Schnittstellen in der Netzinfrastruktur zu begrenzen. Anschließend muss man entscheiden, ob und welche Server-Schnittstellen (UC-Server, Business-Anwendungsserver, etc.) ebenfalls überwacht werden müssen.

Ein weiterer Aspekt des Regelwerks betrifft das Sammeln und Archivieren von Gerätekonfigurationen. Unter Umständen kann eine Betriebsrichtlinie erfordern, dass wir jeden Tag die aktuellen Konfigurationsänderungen validieren. In der Praxis erkennen wir dadurch diejenigen Konfigurationsänderungen, die kurz vor einem Auftreten eines Netzwerkfehlers aktiviert wurden. Mit Hilfe der gespeicherten Parameter lassen sich auch Konfiguration eines ausgefallenen Geräts wiederherzustellen.

Die Anzahl der Parameter zur Sammlung und zur Analyse können sehr umfangreich sein. In der Regel beginnt man mit einer recht kurzen Liste an wichtigen Parametern. Im Laufe der Zeit wird diese Liste immer länger und mündet in einem umfangreichen Regelwerk. Ein hilfreiches Regelwerk für ein Performance-Management findet man in einem von Cisco veröffentlichten White-Paper: "Performance Management: Best Practices White Paper" (http://www.cisco.com/c/en/us/support/docs/availability/high-availability/15115-perfmgmt.html)

Anbieter zum Thema

zu Matchmaker+

  1. Regelwerk zur Netzwerk-Verwaltung
  2. Was muss überwacht und verwaltet werden

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu connect professional

Weitere Artikel zu Server, Datacenter

Matchmaker+