Bis zu einem gewissen Grad lässt sich die Latenz durch die Verwendung traditioneller Methoden zur Überwachung der Netzwerkleistung mindern, aber eine Latenz ist naturgemäß nicht vorhersehbar und schwer zu verwalten. Wie sieht es hier mit dem Einsatz künstlicher Intelligenz aus? Es gibt zahlreiche Beispiele von Techniken, die große Fortschritte machen, indem sie eine Form des maschinellen Lernens verwenden. Der Punkt, an dem maschinelle Lernverfahren die Latenz signifikant minimieren können, ist jedoch noch nicht erreicht. Es ist aktuell nicht möglich, vorherzusagen, wann ein bestimmter Switch oder Router mit Datenverkehr überlastet sein wird. Das Gerät kann einen plötzlichen Daten-Burst erleben, der nur eine Verzögerung von einer Millisekunde oder zehn Millisekunden verursacht. Sobald diese Geräte überlastet sind, kann KI-Technik bei diesen plötzlichen Änderungen noch nicht helfen, Warteschleifen von Paketen, die auf eine Verarbeitung warten, zu verhindern.
Die aktuell effektivste Lösung besteht darin, die Latenz dort zu bekämpfen, wo sie die Benutzer am meisten beeinflusst – so nah wie möglich an ihrem physischen Standort. In der Vergangenheit nutzten die Techniker Netflow und/oder eine Vielzahl von Überwachungsinstrumenten im Rechenzentrum, da sie genau wussten, dass der Großteil des Datenverkehrs zu ihrem Server gelangte und dann zu den Anwendern zurückkehrte. Bei einer viel größeren Datenverteilung gelangt heute nur ein kleiner Teil der Daten zu den Servern, was eine Überwachung des eigenen Rechenzentrums weit weniger effizient macht. Anstatt sich ausschließlich auf ein solches zentralisiertes Netzwerküberwachungsmodell zu verlassen, sollten IT-Teams ihre herkömmlichen Tools ergänzen, indem sie die Datenverbindungen an jedem Remote-Standort oder in jeder Zweigstelle überwachen. Bei verteilten Daten muss auch die Netzwerküberwachung verteilt sein. Anwendungen wie Office 365 und Citrix sind gute Beispiele, da die meisten Unternehmen regelmäßig Produktivitäts- und Unified-Communications-Tools verwenden. Diese Anwendungen sind in den meisten Fällen eher mit Azure, AWS oder Google verbunden als mit dem eigenen Unternehmens-RZ. Wenn das IT-Team diese Zweigstelle nicht aktiv überwacht, verliert es die User Experience an diesem Standort vollständig aus den Augen.
Trotz aller Vorteile von SaaS-Lösungen wird die Latenz auch weiterhin eine Herausforderung bleiben, falls die verantwortlichen IT-Teams ihre Herangehensweise an das Netzwerk-Management nicht überdenken. Sie müssen einen umfassenden, dezentralisierten Ansatz für die Netzwerküberwachung verfolgen, der das gesamte Netzwerk und all seine Zweigstellen umfasst. Es besteht kein Zweifel daran, dass die Verbreitung von SaaS-Tools und Cloud-Ressourcen für die meisten Unternehmen ein Segen war. Die Herausforderung für die IT-Teams besteht jedoch darin, den Ansatz des Netzwerk-Managements in einem dezentralisierten Netzwerk zu überdenken. Ein wichtiges Thema ist die Fähigkeit, die Einhaltung von SLAs effektiv zu überwachen.
Ebenso essenziell ist die Möglichkeit, die Service-Qualität für alle Endbenutzer sicherzustellen. Um das zu erreichen, müssen IT-Fachleute genau sehen können, was die Nutzer in Echtzeit erleben. Dieser Übergang zu einem proaktiven Überwachungs- und Fehlerbehebungsstil hilft IT-Fachleuten bei der Behebung von Netzwerk- oder Anwendungsengpässen jeglicher Art, bevor sie ein Problem für die Belegschaft oder Kunden darstellen. Um möglichst niedrige Latenzen sicherzustellen, reicht ein auf zentralen Messpunkten basierendes Monitoring meist nicht aus. Während das Monitoring nach wie vor zentralisiert bleiben kann, sind die Messpunkte zunehmend zu dezentralisieren.
Timur Özcan ist Geschäftsführer von Neox Networks.