Nahezu jedes Unternehmen ist heute auf funktionierende IT und vor allem auf eine leistungsfähige IT-Infrastruktur angewiesen. Dabei ist es die größte Herausforderung, einen umfassenden Blick auf die IT-Infrastruktur zu erhalten, um proaktiv planen und handeln zu können. Dabei gilt es in Bezug auf agentenbasierte und agentenlose Lösungen zu unterscheiden zwischen klassischem Netzwerk-Monitoring und einem echten Performance-Management geschäftskritischer Anwendungen.Heute reicht es nicht mehr, Netzwerkkomponenten allein zu überwachen oder auf immer größere Bandbreiten umzusteigen. Wichtig ist, alle Prozesse und Transaktionen im Blickfeld zu behalten und nicht erst bei Ausfällen oder erheblichen Einschränkungen auf Fehlersuche zu gehen, sondern bereits im Vorfeld zu agieren. Die steigende Anzahl geschäftskritischer Anwendungen und der selbstverständliche Anspruch, dass diese reibungslos zu nutzen sind, setzen IT-Verantwortliche oft unter Druck, sind doch die Auswirkungen bei Ausfällen oder Engpässen erheblich. Gerade hier wirkt sich ein effektives Performance-Management zugunsten des Unternehmens aus. Es reduziert die Komplexität der Infrastruktur und ermöglicht es, Verluste im operativen und produktiven Geschäft zu vermeiden. Ein proaktives Performance-Management hilft den IT-Verantwortlichen, die Performance zu verstehen, wie die Endanwender sie erleben. Fehler und Engpässe lassen sich mit wenigen Klicks identifizieren, wodurch sich die gesamte Performance der IT-Landschaft kontinuierlich steigern und optimieren lässt. Hat man die Notwendigkeit von Monitoring-Lösungen erkannt, so stellt sich als Erstes die Frage, was genau man überwachen will. Eine Basis ist auf jeden Fall das Monitoring der Netzwerkkomponenten wie Router, Switches, Server etc. Klassische Tools sind hier aber meist nur in der Lage, festzustellen, ob diese Komponenten tatsächlich verfügbar oder ausgefallen sind, die Ursache eines Problems lässt sich in den meisten Fällen nicht erkennen. Will man Performance-Entwicklungen und deren Auswirkungen messen, überwachen und ein Troubleshooting durchführen, so benötigt man Werkzeuge, die viel tiefer in die IT-Infrastruktur blicken können. Für diese Zwecke gibt es Monitoring- und Management-Tools, die den Netzwerkverkehr und Netzwerk-Flows ausgehend von den Netzwerkkomponenten bis hin zum Endanwender messen und bewerten. Konnte man sich in Bezug auf die Performance nur auf die subjektive Wahrnehmung der Endanwender beziehen, so ist es nun möglich, detaillierte Beschreibungen der Ursache zu liefern, fernab der symptomatischen Darstellung, dass etwas "nicht funktioniert". Methoden Im Bereich des Application Performance Monitoring (APM) gibt es drei unterschiedliche Methoden oder Herangehensweisen: End User Experience Monitoring, agentenbasiertes APM und netzwerkbasiertes APM. Das agentenbasierte End User Experience Monitoring (EUE-Monitoring) benötigt sogenannte Roboter auf den Clients, die immer wieder vordefinierte Szenarien abspielen, um die gesamte Transaktionszeit aus Benutzersicht zu evaluieren. Agenten oder Roboter haben immer einen gewissen Einfluss auf die Netzwerk-Peformance. Darüber hinaus muss der Administrator beim EUE-Monitoring die benötigten Szenarien vorab konfigurieren. Tatsächlich lässt sich damit auch nur die Frage beantworten, wie sich im Bezug auf die Standards wichtiger Applikationen die Qualität der Bedienbarkeit (im Englischen: "Quality of Experience") entwickelt. Auch ist anzumerken, dass das Ergebnis dieses Monitorings nicht der realen Nutzung entspricht und keine tiefergehenden Auskünfte gibt, warum Fehler auftreten und woher die Fehler kommen. Zu empfehlen ist diese Methode, wenn nur Bedarf auf Ebene der Helpdesks besteht oder man kurze Berichte an das Management liefern will. Das agentenbasierte APM benötigt auf allen Servern der Applikationskette sogenannte Agenten, um die Ausführung der Applikationen auf Basis eines Code- und System-Ressourcenlevels zu überwachen. Auch hier wirken sich natürlich die installierten Agenten auf die Netzwerk-Performance aus. Agentenbasierte Modelle liefern einerseits keinen Einblick in die Umgebung der Anwendungen, und es wird auch nicht ersichtlich, wie Applikationen über das Netzwerk "ausgeliefert" werden. Andererseits lassen sie erkennen, welcher Part der Applikationskette die Performance-Einbußen verursacht und welche Transaktionen zu langsam sind. Darüber hinaus sieht der Administrator, welcher Code zu langsam ausgeführt wird. Gerade im Entwicklungsbereich oder im IT-Qualitäts-Management bestehen hier sinnvolle Einsatzmöglichkeiten. Das Network-based APM wiederum nutzt strategisch platzierte Messeinheiten im Netzwerk, um den Datenverkehr der Applikationen zwischen Clients, Frontend-Servern und innerhalb der Applikationskette zu messen. Diese Messeinheiten stellen Mirror Ports oder TAPs (Test Access Ports) dar. Im Vergleich zu den anderen Methoden lassen sich auf diese Weise alle Applikationen und Transaktionen, die über das Netzwerk laufen, auffangen. Hervorzuheben ist, dass diese Methode ohne Auswirkung auf das Netzwerk arbeitet und ohne weiteren Installationsaufwand auskommt, wie er bei Agenten oder Robotern notwendig ist. Man kann feststellen, ob es tatsächlich um Ausfälle oder Performance-Einschränkungen geht. Es lässt sich nicht nur erkennen, welche Applikation Fehler verursacht, sondern auch, welcher Endanwender beeinträchtigt ist. Verzögerungen lassen sich genau auf die beeinflussende Ebene (Netzwerk, Server, Applikation) herunterbrechen. Auch lässt sich beantworten, welche spezifische Transaktion der Auslöser ist. Diese Funktionen erleichern die Zusammenarbeit der einzelnen IT-Abteilungen und vereinfachen somit die Fehlerbehebung. Passiv als Vorsprung Betrachtet man eine netzwerkbasierte APM-Lösung näher, zeigt sich schnell, welche Vorteile und Einsparmöglichkeiten vor allem beim Faktor Zeit für IT-Verantwortliche gegeben sind. Grundsätzlich bekommt man einen globalen Einblick in die Netzwerkaktivitäten, in die IT-Infrastruktur sowie in die Applikations-Performance. Dies ist eine hervorragende Ergänzung zu klassischen SNMP-basierenden Netzwerk-Monitoring-Tools, die rein physische Probleme aufdecken. IT-Verantwortliche müssen bei der Einführung einer solchen Lösung dank der Mirror-Port-Technik keine Änderungen an der IT-Architektur vornehmen. Auch im virtuellen Umfeld stellt die Überwachung des Netzwerkverkehrs kein Problem dar. Im Bereich der Netzwerknutzung heben Funktionen wie Mapping von LAN/WAN, Bandbreitendarstellung, Top-Reports und Nachverfolgung aller Netzwerkaktivitäten diesen Ansatz hervor. Sehr schnell lässt sich erkennen, welche Flows die meisten Ressourcen im Netzwerk beanspruchen. Somit können IT-Verantwortliche besser nachvollziehen, wie die IT-Infrastruktur genutzt wird und wie sich Hosts im Netzwerk verhalten. Zudem lässt sich die Netzwerk-Performance klar und deutlich darstellen. Dazu dienen spezielle Dashboards, anhand derer man Performance-Trends bezogen auf den gesamten Netzwerkverkehr erkennen kann. Auch ICMP- oder TCP-Error-Reports sind möglich. Dies ermöglicht dem IT-Verantwortlichen, proaktiv die Performance des Netzwerks zu verbessern, Anomalien und Fehler in Bezug auf falsch oder ungünstig konfigurierte Hosts und Netzwerkkomponenten zu identifizieren sowie außergewöhnliches Verhalten und Sicherheitsbedrohungen zu erkennen. Auch für die Applikations-Performance bieten derartige Lösungen aussagekräftige Dashboards. Im Monitoring wird die End User Response Time (Antwortzeit aus Sicht des Endanwenders) dargestellt, aufgeschlüsselt nach Netzwerk-, Server- und Anwendungsleistung. Die Performance von Namensdiensten wie DNS lässt sich ebenfalls abbilden. Durch diese Features erhält der Administrator einen Überblick über die Verfügbarkeit geschäftskritischer Anwendungen, ergänzt um Berichte zur "Quality of Experience". Auch VoIP (Voice over IP) lassen derartige Lösungen nicht außen vor.