Wie sich Engpässe bei der System-Performance auf die Produktivität einzelner Mitarbeiter auswirken, ist für die IT-Abteilung in der Regel kaum nachvollziehbar. Real User Monitoring, also die Leistungsüberwachung aus der Perspektive des Endnutzers, wird dabei nicht zuletzt durch den Siegeszug der Cloud-Dienste zu einem zentralen Thema jedes IT-Verantwortlichen.Unternehmen investieren beträchtliche Summen, um ihre Softwareanwendungen auf individuelle Bedürfnisse hin anzupassen und bestehende Geschäftsabläufe angemessen abzubilden. In der täglichen Arbeitspraxis weiß die IT dann aber oft wenig über das tatsächliche Antwortzeitverhalten von Applikationen am jeweiligen Arbeitsplatzrechner. Von der vermeintlich höheren Effizienz bei Geschäftsprozessen bleibt so oftmals nicht viel übrig.
Real User Monitoring ist ein Ansatz, um in diesem Bereich Abhilfe zu schaffen und das Antwortzeitverhalten einzelner Services auf Benutzerebene nachzuvollziehen. Das Ziel ist, beste technische Voraussetzungen für eine höchstmögliche Arbeitsproduktivität durch eine reibungslose IT-Performance zu bieten. Zudem bringt Real User Monitoring Licht in oft intransparente SLAs (Service Level Agreements). Die IT-Abteilung kann nämlich exakt feststellen, wann welcher Dienst für wen nicht funktioniert. Beschwert sich ein Benutzer über die Antwortzeit, hat die IT-Abteilung eine objektive Grundlage, um festzustellen, wodurch genau das Problem verursacht wird und wie oft es auftritt. Nicht zuletzt vor dem Hintergrund des Siegeszuges von Cloud-Diensten wird die Überwachung der Leistungsfähigkeit derselben zu einer wichtigen Funktion für IT-Verantwortliche.
Selbst die besten Cloud-Lösungen sind nicht gegen Ausfälle gefeit. Dabei muss nicht gleich der Gesamtausfall eines Dienstes oder Anbieters angenommen werden. Die Ausfälle können auch minimal sein: Bei Tausenden Benutzern können für einen bestimmten Zeitraum nur einzelne Mitarbeiter mit bestimmten Diensten nicht arbeiten. Wenn sich die Fachabteilung bei der IT beklagt, muss diese verstehen können, wo die Ursache des Fehlers zu suchen ist. Liegt es am eigenen Unternehmen? Liegt es am Lieferanten? Am Netzwerk im Haus? An der Anwendung? Und falls ja, an welcher? Und wie ist im Falle eines externen Anbieters zu beweisen, dass jener die Quelle des Problems war?
Was nützen Verträge mit Service Level Agreements, wenn man nicht nachweisen kann, wann und wie lange diese eingehalten wurden? Hinzu kommt die steigende Anzahl an genutzten Cloud-Dienstleistungen. Kaum ein Unternehmen wird sämtliche Cloud-Services bei einem einzigen Anbieter beziehen. So wie Unternehmen heute Hardware und Software von verschiedenen Lieferanten kaufen, werden sie in Zukunft Cloud-Dienste bei unterschiedlichen Dienstleistern beziehen. Für die IT-Abteilungen wird es damit zunehmend komplex, Störfälle und Performance-Einbußen nachvollziehen zu können.
Es geht also darum, traditionelle Überwachungsansätze im Hinblick auf Cloud-Services zu erweitern. Weit verbreitete Systeme wie die Open-Source-Lösung Nagios, aber auch zahlreiche proprietäre Lösungen bieten ein gezieltes Monitoring der Services und Systeme. Sie liefern aber keine Analyse, wie gut ein Service für einen bestimmten Benutzer tatsächlich funktioniert. Wie lässt sich nun das Monitoring des Leistungsverhaltens der zu überwachenden Anwendungssoftware beziehungsweise Dienste pro Endbenutzer in den traditionellen Überwachungsprozess einbinden? Hier gibt es zwei gängige Umsetzungsvarianten: die aktive durch lokale Agenten oder die passive durch Key Performance Counter.
Zum einen kann End User Monitoring durch den Einsatz von Plugins und Agenten auf den Desktop-PCs erfolgen. Dieser Ansatz bietet zwar eine umfassende Flexibilität in der Steuerung der Agenten, ist aber aufwändig in der Umsetzung, da jeder einzelne Arbeitsplatzrechner mit Agenten zu versehen ist. Neben der organisatorischen Herausforderung besteht zudem das Risiko, dass produktive Umgebungen instabil werden.
Ein anderer Ansatz ermittelt die Leistungsindikatoren über Key Performance Counter, die passiv in die Netzwerkkommunikation integriert werden und Applikationsprotokolle verstehen. Eine solche Lösung stößt einen periodischen Prozess der Netzwerküberwachung auf Client-, Server- und Applikationsseite für jede Anwenderanfrage an. Engpässe erkennt der Administrator durch den Abgleich der Daten mit einer automatisch ermittelten Mindestqualität. Dies verdeutlicht, ob bei der Nutzung der überwachten IT-Services Verschlechterungen bei einzelnen Benutzern auftreten. Bei Abweichungen generiert das System einen Hinweis, ob die Unregelmäßigkeit mit dem Netzwerk oder der Applikation zusammenhängt. Die noch zulässige Abweichung sollte optimalerweise so ausgedrückt sein, dass der Anwender sie erstens schnell erfassen kann - beispielsweise in Prozent - und zweitens keine Flut an Positivmeldungen auftritt.
In den erhobenen Leistungsdaten sollte eine solche Lösung den Service an sich wie auch die von Performance-Problemen betroffenen Arbeitsplätze ausweisen. Darüber hinaus ist der genutzte Service, der Cloud-Dienst, die Netzwerkkommunikation sowie die exakte Applikationszeit anzuführen. Durch den Ansatz lässt sich pro Arbeitsplatz und für jede Anwendung exakt feststellen, ob SLAs eingehalten werden und die Benutzbarkeit den SLAs entspricht.
Passives End User Monitoring mit Key Performance Countern erlaubt eine einfachere Implementierung als die aktive Variante, da keine Agenteninstallation auf einzelnen Clients erfolgen muss. Zudem ist gewährleistet, dass die produktive Systemumgebung nicht beeinflusst wird und eine Einführung unabhängig von der bestehenden Applikations- und Datenbank-Server-Infrastruktur erfolgen kann. Da jede HTTP-Kommunikation auf das Monitoring-System ausgelagert ist, kommt es bei den überwachten Anwendungen auch nicht zu Leistungseinbußen durch die installierten Agenten.
Zahlreiche namhafte High-End-Anbieter bieten Lösungen für die passive Netzwerkkommunikation. Die Anschaffungskosten übersteigen die Investitionen für das klassische Monitoring aber oft um ein Vielfaches. Gerade für mittelständische Unternehmen ist aber eine überschaubare und kostentransparente Implementierung von End User Monitoring von zentraler Bedeutung, hier können Open-Source-Produkte interessant sein. Doch der Funktionsumfang darf darunter nicht leiden. Moderne Lösungen müssen einen überprüfbaren und sicheren Qualitätsmaßstab für die Service-Qualität der IT-Abteilung selbst wie auch für die vertragliche Nachvollziehbarkeit mit Lieferanten darstellen. Sie müssen sich in das Gesamt-Monitoring integrieren, Performance-Daten müssen übersichtlich dargestellt und Service Levels eindeutig hinterlegbar sein.
Quantifizierbare Performance
Führt man sich die Cloud-Entwicklungen für die kommenden Jahre vor Augen, wird klar, wie wichtig End User Monitoring für die IT-Abteilung wird. End User Monitoring wird aber auch für lokal betriebenen (also On-Premise-) Dienste eine bedeutende Rolle spielen, da Cloud-Dienste oft mit lokal betriebenen Systemen in Mischform auftreten. Dort wird es für IT-Manager zusätzlich wichtig, feststellen zu können, ob ein Anwender eine schlechtere Service-Qualität erfährt, weil das lokal installierte System Performance-Probleme hat - oder weil der Cloud-Dienst Schwierigkeiten macht.