Die Übertragungsqualität der Echtzeitströme wie VoIP oder Video ist von der Dienstqualität (Quality of Service) in den Netzwerken abhängig. Aus diesem Grund muss der QoS bei Echtzeitanwendungen als Funktion der wichtigsten Netzwerkparameter untersucht und die unterschiedlichen Netzbeeinträchtigungen ermittelt werden.
Die öffentlichen Telefonnetze werden in den kommenden drei Jahren vollständig auf die IP-Mechanismen umgestellt. Damit wird die Echtzeitkommunikation in die Next-Generation-Networks (NGN) Einzug halten. Da der Übergang zu einer vollständigen IP-Infrastruktur schrittweise erfolgt und die meisten vorhandenen IP-Datennetze nicht für den Einsatz von Echtzeitanwendungen konzipiert wurden, muss dafür gesorgt werden, dass die Zuverlässigkeit und die Qualität der IP-Netze an die Anforderungen der neuen Anwendungen angepasst werden.
Aus diesem Grund ist eine präzise Abschätzung der Sprach- und Videoqualität notwendig:
Die Überwachung des Netzwerksverkehrs liefert wichtige Informationen über das Verhalten der Anwendungen und bildet die Grundlage für eine Verrechnung der genutzten Netzressourcen, eine Kapazitätsplanung, eine QoS-Analyse, eine frühzeitige Fehlererkennung und Informationen für das Sicherheitsmanagement. Je komplexer die Netzwerke werden, umso wichtiger wird ein detaillierter Einblick in die übermittelten Daten. Ein Verkehrsmonitoring in modernen Netzwerken auf Basis von Switches und Routern (Layer-3-Switches) ist mit den gängigen Technologien nicht mehr zu leisten. Besonders durch den Einsatz von Highspeed-Verbindungen (1 GBit/s, 10 GBit/s oder höher) explodieren die Kosten der Verkehrsanalyse. Die Konsequenz: Viele Netzverbindungen werden nicht in das Netzmanagement einbezogen und quasi als „Black Box“ betrieben. Daher ist für ein kostengünstiges Management aller Netzressourcen eine Monitoring-Technologie notwendig, die diese Funktionen ohne eine zusätzliche Belastung der Netz-/Geräte-Performance in allen Netzkomponenten ermöglicht. Insofern müssen in den Netzwerken entsprechende Messpunkte integriert werden, die eine schnelle Lokalisierung und Identifizierung von Problemen erlauben. Bei den klassischen Anwendungen genügte es in der Regel, die Probleme anhand der Logs, der Endpunktdaten und der vom Monitoring gesammelten Informationen zu analysieren. Da es sich bei VoIP und Video jedoch um Echtzeitdaten handelt, können bereits geringste Fehler drastische Auswirkungen auf die Sprache beziehungsweise die Bewegtbilder haben.
In Lync ist zwar beispielsweise ein Fehlerbehandlungs- und Dienstverwaltungsframework („Call Quality Methodology“) mit dessen Hilfe die Anrufqualität und Benutzerzufriedenheit sichergestellt werden soll, aber dieses System muss genau an die vorhandenen Übertragungswege angepasst werden. Die integrierten Pre-Call-Diagnosetools (PCD) versuchen Probleme im Netzwerk zu erkennen, zu diagnostizieren und zu beheben. Aber in virtuellen Netzwerken und Serverumgebungen versagt die Aussagekraft dieser Werkzeuge.
Virtualisierte Anwendungen
Die Telefonanlage als zentrale Kommunikationskomponente existiert bei VoIP oder in UC-Umgebungen nicht mehr, sondern wird durch eine Anwendung, welche auf einen oder mehreren virtuellen Servern residiert, realisiert. Die Virtualisierung der Server-Infrastrukturen, der Netzwerke und somit der Echtzeitanwendungen bringt jedoch den Nachteil mit sich, dass große Lücken beim Monitoring und überwachen der Verkehrs- und Transaktionsströme entstehen.
Die Abbildung 1 verdeutlicht, dass die klassischen Analyse- und Monitoring-Werkzeuge nicht mehr in der Lage sind, auf die in virtuellen Umgebungen transportierten Daten zuzugreifen. Auch die Hochrüstung der Backbones von 1 GBit/s auf 10 GBit/s beziehungsweise 40/100 GBit/s trägt nicht zur Transparenz eines solchen Rechner/Netzwerkkonstrukts bei.
Dadurch verlieren die Datacenter- und Netzwerkadministratoren die Sichtbarkeit der Daten und zwangsläufig auch die Kontrolle über die Kommunikationsströme. Die Herausforderung besteht darin, in die virtualisierten Netzwerke einen so genannten „Virtualisierungs-Layer“ einzuziehen. In diesem werden die relevanten Daten aus den verschiedenen Netzwerksegmenten (einschließlich der Campus-, Filial-, Remote-Office-Netzwerke, der privaten Cloud oder den Datacentern) in einer administrativen Domäne (der so genannten „Unified Visibility Fabric“) gebündelt und dort mit den vorhandenen Werkzeugen verwaltet.
Je nach Übertragungsgeschwindigkeit der einzelnen Netzbereiche werden die für die Analyse beziehungsweise das Monitoring notwendigen Daten am Ursprungsort abgegriffen, entsprechend der festgelegten Filterkriterien ausgefiltert und an die Zielapplikation beziehungsweise das entsprechende Mess- oder Analysewerkzeug weitergeleitet.