Viele Unternehmen nutzen Netzwerk-Management- oder Monitoring-Systeme, um Informationen über das Netzwerk zu gewinnen. Neben Server-Auslastung und Datenraten sollen so auch Fehler zum Vorschein kommen. Aber diese auf Software basierenden Systeme setzen eine voll funktionsfähige Netzwerkinfrastruktur voraus, und es ist nicht möglich, bis auf die Verbindungsebene zu blicken. Wenn ein Fehler auftritt, kann dies entweder auf der Protokollebene passieren, oder es handelt sich um einen Fehler auf der physischen Ebene. In diesem Fall ist eine zeitraubende Verbindungskontrolle erforderlich. An dieser Stelle kommt das so genannte intelligente Infrastruktur-Management-System ins Spiel.
Netzwerksysteme der 70er-Jahre waren vorwiegend Hersteller- und applikationsspezifische Systeme.
Die Kompatibilität zu externen Systemen war begrenzt, und der Informationsaustausch zwischen
unterschiedlichen Netzwerken erforderte einen enormen Aufwand. Wachsende Computersysteme und dem
daraus resultierenden Bedarf an Informationsaustausch mach-ten Kommunikationsstandards notwendig.
Diese Standards durften nicht von Herstellern oder Applikationen abhängen und sollten für alle
Systeme (zum Beispiel DOS oder Unix) anwendbar sein.
Im Jahr 1984 publizierte die ISO ein Modell, dass die Welt der Informations- und
Kommunikations-Systeme dramatisch beeinflußte: das OSI-(Open Systems
Interconnection)Referenzmodell, das bis heute unverändert Gültigkeit hat. Es teilt die
Kommunikation innerhalb eines Netzwerkes in sieben Schichten (Layer) ein, alle mit einer
individuellen Definition und Arbeitsweise. Je höher ein Layer in der Modellhierarchie angesiedelt
ist, umso höher ist der Grad der Abstraktion. Das Modell vereinfacht die Beschreibung und
Entwicklung von Protokollen und wird von jedem Hersteller genutzt, um die Interoperabilität
sicherzustellen.
Unter anderem geht es um Aufgaben wie die Erkennung von verfügbaren Daten, das Senden und
Empfangen von Daten über ein physisches Medium oder die Fehlererkennungs- und
Korrekturinformationen. Der Informationsaustausch zwischen Applikationen auf zwei Computersystemen
lässt sich als virtueller, direkter Link zwischen den Layern verstehen. Die Übertragung von Daten
erfolgt durch einen Datenstrom auf dem niedrigsten, dem so genannten Physical Layer. Wichtig: Um
Übertragungsfehler zu finden, müssen alle Layer in die Betrachtung einfließen.
Wenn ein Übertragungsfehler auftritt, sucht der IT-Administrator in den meisten Fällen einen
Fehler in der Netzwerksoftware. Dies Suche geschieht meist in den oberen OSI-Layern, und zwar unter
Verwendung von Software-Tools. Nach den neuesten Zahlen von Forschungsunternehmen wie Gartner
lassen sich jedoch etwa 70 Prozent aller Netzausfälle auf Fehler in der physischen Ebene eines
Netzwerks zurückführen. Dies bedeutet, dass Netzwerkadministratoren in zwei von drei Fällen an der
falschen Stelle suchen. Darüber hinaus brauchen Softwarediagnose-Instrumente ein funktionierendes
Netzwerk, um aussagefähige Reports zu erstellen. Durch Verwendung eines Systems, das es erlaubt
auch den physischen Layer zu überwachen, lassen sich Netzwerkprobleme dagegen einfacher, schneller
und mit weniger Auswirkung auf das laufende System entdecken und beheben.
Die Idee hinter einem Physical-Layer-Monitoring-System, auch intelligentes
Infrastruktur-Management-System (IIMS) genannt, ist es, alle aktuellen Hardwareverbindungen an
einem zentralen Punkt in Echtzeit sichtbar zu machen. Ein solches System ist in der Lage alle
Umzüge, Ergänzungen und Änderungen (Moves, Adds, Changes, MACs) zu verfolgen und automatisch zu
dokumentieren. Der Netzwerkadministrator kann alle anstehenden Arbeiten von seinem Schreibtisch aus
in Echtzeit überwachen.
Ein Monitoring-System für den Physical Layer
Dies lässt sich erreichen, indem im Verteilerraum alle Ports von Switches und Panels einen
Sensor erhalten und jedes Patch-Kabel mit einem zusätzlichen Kontakt-Pin versehen wird. Ein so
genannter Analyzer (die Bezeichnung variiert bei verschiedenen Herstellern) liest die
Sensorinformationen aus und erzeugt eine Datenbank, die bei allen vorkommenden MACs aktualisiert
wird. Verwendet man neben einem IIMS auch ein logisches Netzwerk-Management-Mystem, so ist es
möglich sowohl die physische als auch die logische Netzwerkebene zu überwachen. Der IT-Manager
erhält dadurch eine exzellente Transparenz des gesamten Netzwerks.
Durch die Möglichkeit, die Datenbank mit Gebäudeplänen und Benutzerinformationen zu ergänzen,
erhält man eine komplette Dokumentation des Netzwerks. Ergänzungen und Änderungen an jedem Punkt
des Netzwerks lassen sich an einen lokalen Techniker delegieren, während der Administrator in
seinem Büro in der Firmenzentrale alle Prozesse fernüberwacht. Auch sind Sicherheitsaspekte
einbeziehbar. So kann man zum Beispiel bei jeder nicht autorisierten Verbindungsänderung eine
Alarmmeldung an den Administrator senden. Beim Einsatz eines intelligenten
Infrastruktur-Management-Systems erhält der IT-Administrator mit einem Mausklick alle Informationen
über die Infrastruktur, über Nutzer und die verwendeten Geräte an jedem Punkt des Netzwerks.
Planungen, Auswertungen und Umzüge lassen sich mit nur einem Software-Tool bewerkstelligen. Die
Planungsabteilung kann für die Planung von Erweiterungen sofort alle freien Ports und deren
Standort im Netzwerk und Gebäude auffinden. In der Vergangenheit waren diese Funktionen auf
verschiedene Software-Tools aufgeteilt und die intelligente Kombination zu einem Management-Tool
nicht möglich.
Fazit
Software-Monitoring ermöglicht dem IT-Manager zwar einen Einblick in die Protokollebene eines
Netzwerks, setzt dazu jedoch ein einwandfreies Funktionieren der physischen Ebene voraus.
Nachweislich resultieren eine große Anzahl von Fehlfunktionen in der Protokollebene aber von
Fehlern im Verbindungssystem. Dies bedeutet, dass viele der Fehlerquellen mit Software-Monitoring
nicht auffindbar sind und zu einer kosten- und zeitintensiven Überprüfung der Verkabelung führen.
Eine zusätzliche Kontrolle des Physical Layers mit Werkzeugen wie dem Amptrac Itracs Infrastructure
Manager von Tyco Electronics wird das gesamte Netzwerk inklusive der Verbindungen transparent. Dies
fördert auch die Implementierung von Sicherheitsprozessen im Netzwerk. Mit seiner automatisierten
und zentralisierten Dokumentation spart eine derartige Lösung viel Zeit sowohl bei der
Administration als auch bei der Fehlersuche. Die Netzausfallzeiten reduzieren sich auf ein Minimum,
was Ressourcen besser nutzt und somit Kosten reduziert.