Log-Daten als Ressource zur Erkennung von Netzwerkproblemen und zur Verbesserung der Netzwerkplanung werden gerne übersehen.
Mehr und mehr nutzen Netzwerker und IT-Teams die Log-Daten zur aktiven Überwachung ihrer komplexen Netze und Infrastrukturen. Die Log-Daten haben dabei die Funktion eines Frühwarnsystems zur Erkennung von Problemen in Anwendungen oder im Vorfeld von Service-Problemen. Die Auswertung der Log-Daten bildet somit den Gegensatz zur Problemanalyse, welche immer erst dann in Aktion tritt, wenn ein Problem sichtbar wird.
Korreliert man beispielsweise die Log-Daten mit den Performance-Metriken, so erhält man ein mächtiges Werkzeug zur Voraussage des Zustands der einzelnen Komponenten im Netzwerk. Der größte Vorteil der Log-Datenanalyse besteht darin, dass man sehr schnell Performance-Informationen erhält und nach einem Netzausfall oder einem anderen Ereignis sehr schnell den aktuellen Zustand der der installierten Komponenten erhält.
Die Analyse der Log-Daten geriet in der Vergangenheit in die Kritik, weil man zum Lesen der gesammelten Daten besondere Detailkenntnisse benötigte. Außerdem wurden die Log-Daten von verschiedenen Personen beziehungsweise Abteilungen erhoben, welche eifersüchtig ihren Datenschatz hüteten. Die isolierte Datenerhebung machte es unmöglich schnell auf die unterschiedliche Datensätze zuzugreifen und die verschiedenen Arten von Log-Daten untereinander beziehungsweise mit übergeordneten Leistungsdaten zu korrelieren.
Inzwischen hat sich das Bild gewandelt und die Unternehmens-IT greift auf die gesammelten Protokolldaten stärker zurück. Einer der Gründe hierfür ist die Erkenntnis, dass durch eine Konzentration beziehungsweise die gezielte Speicherung der spezifischen Protokolldaten einem Missbrauch dieser Daten vorgebeugt werden kann. Außerdem lassen sich die gebündelt abgelegten Log-Daten als Werkzeug für die Fehlersuche im Netzwerk und für die aktive Überwachung und Planung nutzen.
Dieser grundlegende Wandel belegt auch eine Studie von Enterprise Management Associates. Laut dieser Umfrage gaben 47 Prozent der Befragten an, dass die Log-Daten eines der wichtigsten Werkzeuge für das Netzwerk-Management darstellen.
Auch die Popularität von Log-Tools ist ein Beweis für ihren Wert. Trotzdem werden diese Werkzeuge am häufigsten bei der Fehlersuche verwendet, um eine Fehlkonfiguration oder ein Protokollproblem zu finden, nachdem ein Ereignis bereits stattgefunden hat. Splunk – als Forensik-Tool - wurde in erster Linie zur Suche, Überwachung und Analyse von Maschinendaten entwickelt, nachdem ein Problem die Anwendung oder den Dienst gestört hat. Vielleicht sagen gerade deshalb mehr als 50 Prozent der Befragten, dass sie eigentlich wussten, nach was sie suchten. Aber genau dieses Wissen hat verhindert, dass sie sich nicht die vorhandenen Log-Daten angesehen haben. Weitere 36 Prozent der Befragten sagten, dass das Schreiben neuer Skripts oder Filter sie entmutigt hätte die Log-Daten anzufassen.
Die Realität in den Unternehmen lässt sich wie folgt beschreiben: Die in den Unternehmen vorhandenen Werkzeugen, Technologien und auch das Denken der IT-Abteilungen basiert auf veralteten Methoden und die unbegründete Angst vor den Log-Dateien verhindert deren sinnvolle Nutzung. Aus diesem Grund werden drei Dinge notwendig, um sicherzustellen, dass die Log-Dateien in Zukunft genutzt werden:
Fazit
Die reaktiven Maßnahmen müssen durch neue Werkzeuge die gesammelten Log-Daten in eine vorausschauende Technologie wandeln. Erweiterte Indizierungen, das Metadaten-Tagging, neue Suchfunktionen, Analysen und Reports vereinfachen drastisch das Navigieren durch den gesammelten Datenwust. Ehemals isolierte Ereignisdaten lassen sich in Echtzeit analysieren, um Ursachen für Probleme aufzudecken und zu erkennen, wie Geräteänderungen das Netzwerk und die Performance verändern.