Technische Innovationen einerseits und aktueller Kostendruck in den Unternehmen andererseits sorgen für steigende Nutzerzahlen bei virtuellen Meetings und Unified Communications. Vor der Einführung muss die IT allerdings einige Hausaufgaben erledigen. Der Beitrag gibt einen Überblick, wie Administratoren die Hürden meistern können.
Nach dem ersten großen Hype mit Voice over IP (VoIP) werben nun zahlreiche IT-Anbieter unter dem
Begriff Unified Communications (UC) für eine multimediale Kommunikation, die Audio, Video (Echtzeit
oder Streaming), Presence und andere Kommunikationstechniken vermischt. Tatsächlich sind die
meisten modernen Arbeitsplätze bereits ausgerüstet für Einsteigerlösungen à la Skype oder Microsoft
Live Messenger und stellen dem Anwender damit alle Grundfunktionen von Chat bis Videotelefonie zur
Verfügung. Am oberen Ende der Qualitätsskala rangieren Konferenz- und Telepresence-Systeme, die vom
Videotelefonat bis zur Übertragung kompletter Konferenzräume alle Kommunikationsformen unter einem
einheitlichen Plattformdach über IP-Netze abwickeln. Der schnelle Klick zum Skype-Telefonat darf
jedoch nicht darüber hinwegtäuschen, dass mit der Einführung von geschäftlichen Audio- und
Videoanwendungen auch völlig andere Anforderungen an die Netzwerktechnik zu stellen sind.
Die Grundproblematik besteht hauptsächlich darin, dass Audio- und Video-Streams ein ganz anderes
Lastprofil aufweisen als traditionelle Datenanwendungen, für die die Netzwerke ursprünglich
konzipiert wurden. Typisch für herkömmliche Applikationen sind kurze Ausschläge mit sehr hohem
Datenvolumen, wohingegen Echtzeitkommunikationsanwendungen das Netz mit einem permanenten, relativ
gleichmäßigen Datenstrom belasten, der zudem nicht unterbrochen werden darf. Um alle Implikationen
zu verstehen, ist es hilfreich, sich noch einmal die Eigenheiten des IP-Protokolls in Erinnerung zu
rufen. Grundsätzlich handelt es sich dabei um ein "unzuverlässiges" Protokoll, das sich nicht um
den zuverlässigen Fluss der Pakete kümmert. Daher wurde es zusätzlich mit TCP (Transmission Control
Protocol) ausgestattet, das dafür sorgt, dass auch tatsächlich jedes gesendete Datenpaket auf der
Empfangsseite ankommt. Sobald ein Paket verloren geht, meldet TCP den Verlust dem Sender, der
daraufhin die fehlenden Bestandteile einfach noch einmal schickt.
Der Datenstrom einer Echtzeitübertragung hingegen muss sich anderer Mechanismen bedienen.
Zunächst einmal digitalisiert hier eine Codec-Software auf Senderseite die Audio- oder Videosignale
und sendet diese mit permanenten Aktualisierungen über das Netz zum Decoder auf der Empfangsseite,
was zu einem gleichmäßigen Datenfluss führt, solange die Applikation läuft. Ein zweites
Charakteristikum für Livestreams ist ihre Empfindlichkeit in Bezug auf Verzögerungen: Kommt ein
Datenpaket verspätet an oder geht es verloren, so reagiert die Abspielseite unmittelbar mit Ton-
oder Bildverschlechterung. Dabei führen bereits relativ kleine Paketstörungen zu starken
Qualitätseinbußen.
Aufgrund dieser Sensibilität in Bezug auf Paketstörungen scheiden die zuvor beschriebenen
TCP-Mechanismen als mögliche Fehlerkorrektur aus. Würde nämlich das Protokoll bei einem Livestream
versuchen, ein beim Empfänger nicht angekommenes Datenpaket erneut zu übertragen, so würden diese
Pakete aufgrund der Rechen- und Netzwerkverzögerung immer zu spät eintreffen. Das Telefongespräch
oder die Videokonferenz wären in dieser Zeit bereits um Zehntelsekunden oder Sekunden
vorangeschritten. Aus diesem Grund nutzen Echtzeitanwendungen alternativ zu TCP das User Datagram
Protocol (UDP), das gänzlich auf Wiederherstellungsmechanismen verzichtet.
Nach diesen Vorüberlegungen stellt sich somit die Frage, mit welchen alternativen Methoden ein
sicherer und schnellerer Datenstrom garantiert werden kann. Als wichtigster Mechanismus steht
hierbei Quality of Service (QoS) zur Verfügung. Es handelt sich dabei um ein ganzes Bündel an
Funktionen, die dazu dienen, bestimmten Datentypen im Netz wie Audio oder Video einen Vorrang
einzuräumen gegenüber weniger zeitkritischen Elementen, um so eine hohe Übertragungsqualität
sicherzustellen. Zu gängigen QoS-Optionen zählen Priority Queuing, anwendungsspezifisches Routing,
Bandbreiten-Management sowie Traffic Shaping. Da Priority Queuing die am häufigsten in Netzwerken
verfügbare Funktion darstellt, soll sie im Folgenden etwas detaillierter dargestellt werden.
Priority Queuing adressiert die Warteschlangenproblematik, die als Hauptverursacherin von
Paketverlusten und Verzögerungen gilt. Beim Transport werden Pakete an jedem Ausgang eines Routers
oder Switches in Warteschlangen einsortiert und nacheinander abgearbeitet. Sobald größere
Datenmengen durch das Netz fließen, entstehen an diesen Punkten Staus, das heißt, es kommt zu
Verzögerungen bei der Paketweiterleitung. Das Priority-Queuing-Verfahren richtet daher mehrere
parallele Warteschlangen am Ausgangs-Port ein und sorgt so dafür, dass wichtigere Pakete für Audio
und Video in eine separate Queue eingereiht und stets vor den herkömmlichen Datenpaketen auf die
Reise geschickt werden.
Manche Unternehmen verzichten auf QoS und erweitern stattdessen pauschal die Netzwerkbandbreite
(Over-Provisioning), um so potenzielle Engpässe zu vermeiden. Diese Vorgehensweise ist jedoch mit
Risiken behaftet: Berücksichtigt man die bereits erwähnte Eigenschaft herkömmlicher
Datenapplikationen, die Pakete in kurzen Schüben unter Ausnutzung der maximal verfügbaren
Bandbreite zu übertragen, so besteht selbst bei sehr hohen Bandbreiten die Gefahr, dass solche
Peaks einen VoIP- und Video-over-IP-Datenstrom stören.
Um QoS im Unternehmensnetzwerk erfolgreich zu implementieren, sind folgende vier Schritte
erforderlich: Netzwerk-QoS-Implementierung, Klassifizierung, Ermittlung der Bandbreitenerfordernis
und -verfügbarkeit sowie Bedarfs-Management.
QoS-Implementierung: Dabei ist im Netzwerk zu beachten, dass der ausgewählte Mechanismus zur
Priorisierung des Echtzeitverkehrs auch auf jedem Switch und Router zur Verfügung steht. Gängige
QoS-Mechanismen sind IntServ (RSVP), DiffServ, IEEE 802.1p/Q und IP Precedence.
Klassifizierung: Dies ist ein Verfahren, bei dem jene Datenströme im Netzwerk ermittelt und
gekennzeichnet werden, die mit höherer Priorität zu transportieren sind. Die betreffenden Pakete
lassen sich entsprechend markieren, um ihren Status für die Switches und Router kenntlich zu
machen. In vielen Implementierungen übernehmen die Endpunkte die Markierung der Pakete, sodass das
Netzwerk theoretisch von dieser Aufgabe entlastet ist. Allerdings existieren PC-Anwendungen, die
diesen Mechanismus missbrauchen, um eigene Pakete mit höherer als der üblichen Priorität durch das
Netz zu schleusen. Deshalb vertrauen nicht alle Netzwerkkomponenten den Markierungen der Endpunkte.
Router verfügen oftmals über Analysemechanismen, mit denen sie eigenständig in der Lage sind, hoch
und niedrig priorisierten Verkehr zu erkennen. Unternehmen sollten selbst Richtlinien für die
Klassifizierung entwickeln, um Echtzeitdatenströme zuverlässig zu erkennen und entsprechend zu
behandeln.
Bandbreiten: Die Ermittlung der erforderlichen Bandbreiten ist ein zentraler Aspekt von QoS. Da
auf jeder Netzwerkstrecke ausreichend Bandbreite verfügbar sein muss, sollte am Anfang jeder
Videokommunikationsimplementierung eine Analyse des zu erwartenden Verkehrs stehen. Hierzu bieten
sich verschiedene Verfahren an. Hat das Unternehmen bereits in der Vergangenheit
Echtzeitkommunikation eingesetzt, so liegen Informationen über die Zahl der durchgeführten
Sitzungen vor, über die Zielorte sowie die Dauer der Verbindungen, um daraus Maximalwerte des
Datenvolumens zu ermitteln. Liegen noch keine Erfahrungen vor, so sollten die Planer Schätzungen –
etwa anhand der erwarteten Raumnutzung – erstellen. Erfahrungsgemäß dauern Meetings zwischen einer
halben und einer Stunde. Hilfestellung bei der Bandbreitenkalkulation können so genannte
Erlang-Tabellen bieten, die unter
www.erlang.com erhältlich sind.
Bei den Infrastrukturkomponenten für Videokommunikation steht der Conferencing-Server im Zentrum
der Betrachtung. Wenn etwa in einem Beispielszenario 20 Konferenzendpunkte an einem Call beteiligt
sind, müssen alle eine Vollduplexverbindung zum Server aufbauen. Ist dabei jeder Endpunkt mit einem
Datenstrom von 1,1 MBit/s angebunden, der für eine High-Definition-(HD-)Verbindung ausreichend ist,
so errechnet sich daraus auf dem Server ein Traffic von 22 MBit/s. Addiert man dazu 20 Prozent
zusätzlich benötigte Bandbreite für IP-Paket-Overhead, dann ergibt dies 26,4 MBit/s.
Sobald die erforderliche Bandbreite für eine geplante Echtzeitkommunikationslösung feststeht,
geht es an die Ermittlung der verfügbaren Bandbreite im LAN und im WAN. Wenn möglich sollten alle
Clients über eine 100-MBit/s-Vollduplexanbindung verfügen. Bei der WAN-Auslegung ist zu beachten,
dass der Audio- und Videodatenstrom nie 35 Prozent der Verbindungskapazität übersteigt.
Prioritätsbasierende QoS-Mechanismen beginnen nämlich ab diesem Wert, an Effektivität zu verlieren.
Wichtig ist, die übliche Auslastung durch herkömmliche Datenapplikationen mithilfe von
Monitoring-Tools zu messen, um die benötigte Bandbreite zu Geschäftszeiten zu ermitteln.
Bedarfs-Management: Sollten die Netzwerktests ergeben, dass an kritischen Links nicht genügend
Bandbreite für Echtzeitkommunikation zur Verfügung steht, bieten sich drei Lösungswege an. Der
erste, der Ausbau der Bandbreiten, ist in vielen Szenarien der einzig zielführende Weg. Als zweite
Option bietet sich eine Beschränkung der Kapazitäten für Videokommunikation an. Dies lässt sich auf
verschiedene Weise erreichen. Zunächst kann die Administration die Bandbreite limitieren. Eine sehr
gute Übertragungsqualität lässt sich schon mit 512 kBit/s bis 1 MBit/s erzielen, während bei 384
bis 256 kBit/s immer noch eine gute Audio-/Videopräsentation möglich ist. Unter Verwendung des
derzeit aktuellen H.264-Videokompressionsalgorithmus verbessert sich sogar die Übertragung bei
niedrigen Bandbreiten noch einmal.
Eine weitere Möglichkeit der Optimierung besteht in der Beschränkung gleichzeitig stattfindender
Gespräche über eine Richtlinie. Eine dritte Option besteht in der Kompression des restlichen
Datenverkehrs mit entsprechenden Appliances. Generell gilt, dass in Umgebungen mit einer hohen Zahl
ungeplanter Echtzeitsitzungen auch der Optimierungsaufwand steigt.