Unified Monitoring

Monitoring im Zeichen der Digitalisierung

24. Juli 2018, 14:09 Uhr | Autor: Georg Kostner / Redaktion: Axel Pomper

Fortsetzung des Artikels von Teil 1

Künstliche Intelligenz im Monitoring

Ein wichtiger Vorteil der Wahrscheinlichkeitsdichte gegenüber den Mittelwerten ist, dass die hier erzeugten Informationen wesentlich besser geeignet sind, um das Monitoring mittels Künstlicher Intelligenz (KI) anzureichern. KI verspricht im Monitoring, dass potenzielle Probleme extrem frühzeitig erkannt oder sogar im besten Fall bereits vorab mit hoher Wahrscheinlichkeit prognostiziert werden. Durch maschinelles Lernen kann also Predictive Maintenance genutzt werden, um ungeplante Downtimes und Beeinträchtigungen der Geschäftsprozesse zu minimieren.

Beim maschinellen Lernen kommt es darauf an, ein mathematisches Modell mit Beispielen zu füttern, deren Output – auch Label genannt – bekannt ist. Die Herausforderung ist, dem Algorithmus die richtigen Features als Input bereitzustellen – nicht zuletzt, um auch nach der initialen Trainingsphase eine fortlaufende Optimierung des Systems zu ermöglichen. Diese Optimierung ist besonders im IT-Monitoring extrem wichtig. Denn IT-Infrastrukturen sind sehr heterogen. Jede Geräteart, jedes Betriebssystem hat bestimmte Eigenarten, welche sich in den Monitoring-Daten widerspiegeln und die bei der Auswertung berücksichtigt werden müssen. Zudem ändern sich Infrastrukturen immer schneller, die KI muss adaptiv darauf reagieren können. Ein in der Monitoring-Praxis bereits erprobter Ansatz ist das sogenannte unbeaufsichtigte Lernen. Dieses kommt bereits in einigen Produkten zum Einsatz. Bei unbeaufsichtigtem Lernen versucht der Algorithmus, in dem ansonsten strukturlosen Datenrauschen des Monitorings Muster zu erkennen. Dazu müssen die Daten anhand ähnlicher Merkmale kategorisiert, also zu Clustern zusammengefasst werden. Grundsätzlich sind selbstlernende Systeme sehr adaptiv und können schnell neue Situationen erfassen. Da der Ansatz der Wahrscheinlichkeitsdichte bereits Daten zu Clustern gruppiert, bietet sich das unbeaufsichtigte Lernen im Monitoring an. Der Datenverkehr wird vom Algorithmus in Sparse und Dense Traffic aufgeteilt.

Unified Monitoring
Mit allen drei bislang genannten Ansätzen verfügt das IT-Servicemanagement über sehr genaue und detaillierte Daten zum Zustand der IT. Durch die KI können diese Daten schneller und zuverlässiger in Informationen umgewandelt werden, als das bislang der Fall war. Doch ein Problem in der Praxis bleibt davon unberührt: Die Aufteilung der IT und auch des Monitorings in technologische Silos. Die historisch gewachsene Aufteilung der IT entlang bestimmter Technologien wird dem neuen Anspruch an die IT nicht mehr gerecht. Denn letztlich ist dem Anwender völlig egal, wo genau sich eine Störung befindet. Er sieht den Geschäftsprozess, nicht die Elemente der Service-Kette. Zentrale, konsolidierte Monitoring-Lösungen können helfen, die Trennung der IT aufzuheben und allen Administratoren den Blick auf das Gesamtbild zu geben. Vor allem in Hinblick auf IoT wird dieses wichtig: Jede IoT-Device ist zunächst einmal ein Client, der administriert werden muss und der eine wichtige Rolle in einem Geschäftsprozess innehat. Nur wer die IT komplett End-to-End überschauen kann, vom eigenen Rechenzentrum über die verschiedenen Cloud-Dienste bis hin zu den IoT-Geräten im Feld, kann die Betriebssicherheit auch gewährleisten – und damit die Geschäftstätigkeit des Unternehmens.

Georg Kostner ist Business Unit Leiter bei Würth Phoenix

Anbieter zum Thema

zu Matchmaker+

  1. Monitoring im Zeichen der Digitalisierung
  2. Künstliche Intelligenz im Monitoring

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Würth Phoenix GmbH

Weitere Artikel zu DCIM/Management/Monitoring

Weitere Artikel zu Server, Datacenter

Matchmaker+