Messtechnik

Echtzeitströme

16. Dezember 2014, 13:49 Uhr | Joel Thys, General Manager Simac ICT
© fotolia.com

Die Übertragungsqualität der Echtzeitströme wie VoIP oder Video ist von der Dienstqualität (Quality of Service) in den Netzwerken abhängig. Aus diesem Grund muss der QoS bei Echtzeitanwendungen als Funktion der wichtigsten Netzwerkparameter untersucht und die unterschiedlichen Netzbeeinträchtigungen ermittelt werden.

Abbildung 1: Begrenzte Sichtbarkeit für Analyse und Monitoring-Werkzeuge
Abbildung 1: Begrenzte Sichtbarkeit für Analyse und Monitoring-Werkzeuge
© SIMAC ICT

Die öffentlichen Telefonnetze werden in den kommenden drei Jahren vollständig auf die IP-Mechanismen umgestellt. Damit wird die Echtzeitkommunikation in die Next-Generation-Networks (NGN) Einzug halten. Da der Übergang zu einer vollständigen IP-Infrastruktur schrittweise erfolgt und die meisten vorhandenen IP-Datennetze nicht für den Einsatz von Echtzeitanwendungen konzipiert wurden, muss dafür gesorgt werden, dass die Zuverlässigkeit und die Qualität der IP-Netze an die Anforderungen der neuen Anwendungen angepasst werden.

Aus diesem Grund ist eine präzise Abschätzung der Sprach- und Videoqualität notwendig:

  • Überprüfung der geplanten Lasten der Echtzeitanwendungen. Diese hängen in der Praxis von der Anzahl der parallelen Streams und der verwendeten Codecs ab.
  • Überprüfung der Ende-zu-Ende-QoS-Funktionen und Aufdeckung von Priorisierungsproblemen im LAN und WAN.
  • Überprüfung von Gateways und der NAT-Funktionen im Netzwerk.

Die Überwachung des Netzwerksverkehrs liefert wichtige Informationen über das Verhalten der Anwendungen und bildet die Grundlage für eine Verrechnung der genutzten Netzressourcen, eine Kapazitätsplanung, eine QoS-Analyse, eine frühzeitige Fehlererkennung und Informationen für das Sicherheitsmanagement. Je komplexer die Netzwerke werden, umso wichtiger wird ein detaillierter Einblick in die übermittelten Daten. Ein Verkehrsmonitoring in modernen Netzwerken auf Basis von Switches und Routern (Layer-3-Switches) ist mit den gängigen Technologien nicht mehr zu leisten. Besonders durch den Einsatz von Highspeed-Verbindungen (1 GBit/s, 10 GBit/s oder höher) explodieren die Kosten der Verkehrsanalyse. Die Konsequenz: Viele Netzverbindungen werden nicht in das Netzmanagement einbezogen und quasi als „Black Box“ betrieben. Daher ist für ein kostengünstiges Management aller Netzressourcen eine Monitoring-Technologie notwendig, die diese Funktionen ohne eine zusätzliche Belastung der Netz-/Geräte-Performance in allen Netzkomponenten ermöglicht. Insofern müssen in den Netzwerken entsprechende Messpunkte integriert werden, die eine schnelle Lokalisierung und Identifizierung von Problemen erlauben. Bei den klassischen Anwendungen genügte es in der Regel, die Probleme anhand der Logs, der Endpunktdaten und der vom Monitoring gesammelten Informationen zu analysieren. Da es sich bei VoIP und Video jedoch um Echtzeitdaten handelt, können bereits geringste Fehler drastische Auswirkungen auf die Sprache beziehungsweise die Bewegtbilder haben.

In Lync ist zwar beispielsweise ein Fehlerbehandlungs- und Dienstverwaltungsframework („Call Quality Methodology“) mit dessen Hilfe die Anrufqualität und Benutzerzufriedenheit sichergestellt werden soll, aber dieses System muss genau an die vorhandenen Übertragungswege angepasst werden. Die integrierten Pre-Call-Diagnosetools (PCD) versuchen Probleme im Netzwerk zu erkennen, zu diagnostizieren und zu beheben. Aber in virtuellen Netzwerken und Serverumgebungen versagt die Aussagekraft dieser Werkzeuge.

Anbieter zum Thema

zu Matchmaker+
Abbildung 2: Datensammlung in allen virtuellen Netzwerkbereichen der Unternehmen.
Abbildung 2: Datensammlung in allen virtuellen Netzwerkbereichen der Unternehmen.
© SIMAC ICT

Virtualisierte Anwendungen

Die Telefonanlage als zentrale Kommunikationskomponente existiert bei VoIP oder in UC-Umgebungen nicht mehr, sondern wird durch eine Anwendung, welche auf einen oder mehreren virtuellen Servern residiert, realisiert. Die Virtualisierung der Server-Infrastrukturen, der Netzwerke und somit der Echtzeitanwendungen bringt jedoch den Nachteil mit sich, dass große Lücken beim Monitoring und überwachen der Verkehrs- und Transaktionsströme entstehen.

Die Abbildung 1 verdeutlicht, dass die klassischen Analyse- und Monitoring-Werkzeuge nicht mehr in der Lage sind, auf die in virtuellen Umgebungen transportierten Daten zuzugreifen. Auch die Hochrüstung der Backbones von 1 GBit/s auf 10 GBit/s beziehungsweise 40/100 GBit/s trägt nicht zur Transparenz eines solchen Rechner/Netzwerkkonstrukts bei.

Dadurch verlieren die Datacenter- und Netzwerkadministratoren die Sichtbarkeit der Daten und zwangsläufig auch die Kontrolle über die Kommunikationsströme. Die Herausforderung besteht darin, in die virtualisierten Netzwerke einen so genannten „Virtualisierungs-Layer“ einzuziehen. In diesem werden die relevanten Daten aus den verschiedenen Netzwerksegmenten (einschließlich der Campus-, Filial-, Remote-Office-Netzwerke, der privaten Cloud oder den Datacentern) in einer administrativen Domäne (der so genannten „Unified Visibility Fabric“) gebündelt und dort mit den vorhandenen Werkzeugen verwaltet.

Je nach Übertragungsgeschwindigkeit der einzelnen Netzbereiche werden die für die Analyse beziehungsweise das Monitoring notwendigen Daten am Ursprungsort abgegriffen, entsprechend der festgelegten Filterkriterien ausgefiltert und an die Zielapplikation beziehungsweise das entsprechende Mess- oder Analysewerkzeug weitergeleitet.


  1. Echtzeitströme
  2. Transparenz in allen Bereichen

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu connect professional

Weitere Artikel zu Mobilfunk-Messgeräte

Weitere Artikel zu Server, Datacenter

Weitere Artikel zu Triple-Play-Messtechnik

Matchmaker+