Lange Zugriffszeiten sind ärgerlich und oft auch riskant, etwa bei Labordaten, die jederzeit verfügbar sein müssen. Wo also befindet sich der "Flaschenhals"? Gut ist der Administrator beraten, der Tools besitzt, die nicht nur Server und Netzwerke überwachen und analysieren, sondern auch die Endanwendungen.
Wer kennt die Situation nicht: eine Eingabemaske, die Minuten braucht, um sich aufzubauen. Listen und Tabellen, die lange benötigen, um sich über das Netz mit Daten zu füllen. Programme, die nicht sofort starten. Schnell ist der vermeintlich Schuldige ausgemacht: das Netzwerk. Doch in den wenigsten Fällen ist die Ursache auf das Netzwerk zurückzuführen. Ein häufiges Szenario in diesem Zusammenhang sieht so aus: Die IT-Abteilung des Unternehmens stellt keine Störungen fest, die Endbenutzer beschweren sich dennoch. Oft liegt der Grund für lange Zugriffszeiten in der Anwendung selbst oder in ihrem Zusammenspiel mit anderen Applikationen.
Um die wirklichen Fehlerursachen zu entdecken, benötigt ein Administrator deshalb ein Verständnis für die Wechselbeziehungen zwischen allen Systemen und Anwendungen. Viele Monitoring-Tools konzentrieren sich auf Server, Storage, Router etc., nicht aber auf den Endanwender selbst. Für diesen bedeuten lange Zugriffszeiten jedoch eine erhebliche Beeinträchtigung im Tagesgeschäft. So ist es beispielsweise für ein forschendes Unternehmen wichtig, Labordaten innerhalb von Sekunden abrufen zu können und bei Leistungsproblemen den Fehler schnell zu lokalisieren und zu beheben. Davon hängt nicht nur die Produktivität und Zufriedenheit der Mitarbeiter ab, sondern auch deren Bereitschaft, mit einer Applikation zu arbeiten.
Viele Firmen glauben, mit der Etablierung eines hochmodernen Netzwerkes, das Bandbreiten im GBit/s-Bereich bietet, sei das Nötige getan. Umso mehr zeigt man sich dann überrascht, wenn sich Anwender über mangelnde Performance beklagen. Besser - weil sicherer - wäre es, auch Messungen und Analysen auf Applikationsebene durchzuführen und die Interaktion zwischen Anwendung, Server und Netzwerk zu prüfen und zu dokumentieren - und zwar nicht nur für das klassische Troubleshooting, sondern auch für eine Analyse im Vorfeld einer Implementierung. Damit ließen sich unter anderem folgende Fragen beantworten:
Was passiert, wenn eine neue Anwendung an einem Standort (oder mehreren Niederlassungen), beispielsweise im Ausland, eingeführt wird?
Können die Nutzer dort mit dieser Applikation auch auf Dokumente und Daten in der Unternehmenszentrale zugreifen?
Wenn ja, welche Zugriffzeiten sind zu erwarten?
Welche Bedienschritte erzeugen möglicherweise besonders viel Datenverkehr und sind damit potenzielle Kandidaten für Flaschenhälse?
Gibt es "Performance Peaks" bei der Nutzung der Applikationen?
Monitoring-Informationen liefern wichtige Auskünfte
Diese Informationen sind natürlich für ein Unternehmen eine "Goldgrube" - nicht nur für Investitionsentscheidungen hinsichtlich neuer Systeme, sondern auch für die kontinuierliche Optimierung der gesamten IT-Infrastruktur. Zur Illustration: Für den konzernweite Rollout eines komplett neuen Betriebssystems auf mehreren Tausend Rechnern ist es aus betriebswirtschaftlicher Hinsicht gut zu wissen, ob die neue Windows-Version auch wirklich zu einer höheren Leistung führt und sich deren Anschaffung lohnt.
Wie ein Monitoring auf Applikationsebene konkret aussehen könnte, zeigt das folgende Beispiel. Auf den einzelnen Client-Rechnern werden sogenannte Agenten installiert, die die Transaktionen einer Anwendung aufzeichnen (Packet Traces). Von einer zentralen Konsole beispielsweise lassen sich die implementierten Agenten administrieren, die aufgezeichneten Packet-Traces überträgt das System an die Konsole und untersucht sie dort. Der Administrator kann sich bei Bedarf per Fernzugriff beim Client aufschalten. Auf diese Weise hat er einen Blick auf den Rechner des Endanwenders und kann dadurch genau verfolgen, was dieser in seiner Applikation macht. Moderne Tools für die Performance-Analyse sind heute in der Lage, innerhalb weniger Minuten die Daten zu analysieren und den Grund für Leistungsschwächen mit höchster Genauigkeit zu finden.
Wissen, was auf dem Client läuft
In einem konkreten Fall hatte beispielsweise ein international agierendes Unternehmen das Problem, dass die Mitarbeiter am Standort X zwei- bis dreimal länger benötigten als Nutzer in der Niederlassung Y, um aus einer SAP-Anwendung heraus Informationen zu Kunden zu generieren. Die Besonderheit bestand darin, dass X auf Daten zurückgriff, die im Rechenzentrum in Y hinterlegt waren. Daraufhin startete man vom Hauptsitz aus eine Applikationsmessung und stellte schwankende Signallaufzeiten (Latenz) sowie Paketverluste bei der Datenübertragung zwischen den Standorten fest. Hinsichtlich der schwankenden Latenz nahm man alle Komponenten der betroffenen WAN-Strecke genauer unter die Lupe. Das Resultat: Ein leistungsschwacher Router war die Ursache für die unregelmäßigen Signallaufzeiten und wurde deshalb ausgetauscht.
Moderne Lösungen für ein umfassendes IT-System-Management unterstützen den IT-Verantwortlichen also bei der Analyse, indem sie Paketwiederholungen exakt herausfiltern. Mehr noch: Viele dieser Analyselösungen ermöglichen die detaillierte Aufgliederung der Transaktionen einer Applikation und machen somit Informationen wie Anwendungsdaten, Fehlermeldungen und Wiederholungen (Retransmission) auf einen Blick sichtbar.
Mögliche Quellen für Verzögerungen (Delay) stellt das System grafisch dar, das Überschreiten von Schwellenwerten dokumentiert es sauber und stellt sie als Bericht zur weiteren Bearbeitung zur Verfügung. Der Vorteil solcher Tools ist, dass die ihnen zu Grunde liegenden Capture-Agenten in der Regel geringe Ressourcen (RAM, CPU) benötigen.