Messtechnik

Echtzeit im Datacenter

21. Juni 2012, 11:18 Uhr | Mathias Hein, freier Journalist und Consultant in Neuburg an der Donau
-
© funkschau/IBM

Die Echtzeitkommunikation (VoIP und Video) erfordert im Netzwerk die Integration von Instrumenten zur Rationierung der vorhandenen Übertragungsressourcen. Die zu Stoßzeiten zu knappe Übertragungskapazität muss daher den Anforderungen entsprechend verwaltet werden. An die Stelle der „Best Effort“-Übermittlung nach dem „Einer nach dem anderen“-Prinzip wird durch Priorisierung eine Schnellspur durch das Netz eingerichtet. Um auf Belastungsänderungen schnell reagieren zu können, ist eine entsprechende Echtzeitüberwachung in das Datacenter zu integrieren.

Echtzeitanwendungen wie Voice over IP (VoIP) und Videokonferenzen gehören zu den modernsten Kommunikationsmitteln von Unternehmen. Aus diesem Grund werden weltweit die klassischen Telefonsysteme auf VoIP umgestellt und im Zuge von Unified-Communications auch Videofunktionen in den Desktop-Bereich integriert. Dabei wird die VoIP-Telefonie und die Videovermittlung als reine Applikationen im Datacenter betrieben. Voraussetzung für eine solche Umstellung ist der Informationstransport auf Basis eines IP-Netzwerks, welches in der Lage ist, eine Ausdifferenzierung der Verkehrsklassen mit definierter Dienstgüte für bestimmte Anwendungen zu bieten. Verzögerungen oder staubedingte Paketverluste wirken sich bei IP-basierten Telefongesprächen und Videokonferenzen ungemein störend aus, im Gegenzug fällt es aber nicht auf wenn eine Mail ein paar Sekunden später beim Empfänger eintrifft.

Die Qualität und die Performance von Echtzeitapplikationen wird durch viele Faktoren bestimmt: Leistungsmerkmale sowie -grenzen einzelner Komponenten sowie das Zusammenspiel aller Netzkomponenten (Konfiguration) in den Kommunikationspfaden. Diese für die Performance wichtigen Parameter sind vor der eigentlichen Installation der Echtzeitapplikation und während des Netzbetriebs auf einer Ende-zu-Ende-Basis zu kontrollieren. Dadurch wird die Qualitätssicherung bereits integraler Bestandteil der Echtzeitplanung und kann nicht mehr auf den Zeitpunkt der Inbetriebnahme der Anwendungen verschoben werden.

Der Oberbegriff „QoS“ (Quality of Service) beschreibt in der TCP/IP-Welt die Güte eines Kommunikationsdienstes aus der Sicht der Anwender. Durch QoS werden aktiv bestimmte Parameter beeinflusst, die für das Management der Network-Service-Quality (Bandbreite, Verzögerung, Paketverluste und Jitter) verantwortlich sind. QoS ist somit kein zusätzliches Feature, das sich an eine Netzinfrastruktur wie ein Add-on anflanschen lässt. QoS ist vielmehr das Resultat einer Vielzahl von aufeinander abgestimmten Maßnahmen, die im grundsätzlichen Design einer Netzinfrastruktur verankert sein müssen. Die QoS-bezogene Priorisierung wird durch folgende Mechanismen realisiert:

  • IEEE 802.1p/Q: Beschreibt Methoden für die Bereitstellung der Dienstgüte auf der Ebene 2.
  • Differentiated-Services (DiffServ): Beim IP-Protokoll (Schicht 3) erfolgt die Datenübermittlung ungesichert und verbindungslos. Zur Realisierung einer skalierbaren QoS-Lösung mit unterschiedlichen Dienstklassen wurden von der IETF die Differentiated-Services (DiffServe, RFC 2474 und 2475) als Ergänzung zu den Standard-IP-Mechanismen entwickelt.
  • Traffic-Shaping: Durch das Traffic-Shaping werden an Netzgrenzen (beispielsweise am WAN-Übergang) für bestimmte Anwendungen die notwendigen Bandbreiten zur Verfügung gestellt und andere Applikationen gezielt ausgebremst. Damit werden Lastspitzen ausgeglichen und der Echtzeitverkehr priorisiert behandelt.

In den Netzwerken müssen daher die notwendigen QoS-Mechanismen auf einer Ende-zu-Ende-Basis implementiert werden. Es gilt: QoS schafft ebenso wenig neue Übertragungsressourcen wie es die notwendige Netzdimensionierung ersetzen kann. Die QoS-Mechanismen helfen jedoch beim intelligenten Umgang mit Übertragungsreserven und garantieren die Dienstleistungsgüte zwischen Sender und Empfänger. Diese Grundsätze sind zwar hinreichend bekannt, aber die Debatte über Bandbreite versus QoS ist noch nicht zu Ende und viele Unternehmen betreiben
ihre VoIP-Systeme ganz ohne Quality of Service. Dies wird oft mit zusätzlichen Kos-ten begründet, denn heute gilt QoS noch als ein Kostentreiber. Als „zu teuer“ wird QoS oft unüberlegt aus dem Budget gestrichen.

Es gilt: Standardmäßig werden in lokalen Netzwerken alle Datenpakete gleich behandelt. Basiert der Verkehr im Netzwerk auf der Übermittlung von Texten oder wird ein File-Transfer aktiviert, dann kommt es zu keinen Problemen. Die Anwender bemerken es nicht, wenn die Datenpakete durch fehlende Bandbreite verzögert werden oder durch mangelnde Übertragungsressourcen in den Koppelkomponenten verloren gehen. Wird jedoch VoIP oder Video-Streaming genutzt, dann führt eine mangelhafte Bandbreite oder das Verwerfen von Paketen zu einer dramatischen Verschlechterung der Dienste. Verzögerte Datenpakete führen zu einem Knacken oder einer Verzerrung bei der Sprachübermittlung oder es werden nur verpixelte Videobilder empfangen.

Auf der klassischen Paketebene ist das Netzwerk nicht in der Lage, zwischen einem VoIP-Telefonat, einen PC mit aktiviertem Softphone oder einem falsch konfigurierten PC (welcher eine höhere QoS-Klasse nutzt) zu unterscheiden. Da in den meisten Backbones auch keinerlei Priorisierung definiert ist, kommt es beim Backup von Servern und bei der Übermittlung großer Files beziehungsweise beim Drucken aus Citrix immer wieder zu einer Verschlechterung der Sprachqualität. Zur Vermeidung dieser Probleme muss im Netzwerk auf einer Ende-zu-Ende-Basis ein Quality of Service (QoS) aktiviert werden. Bei QoS wird die Datenübermittlung frei nach George Orwells „Animal Farm“ umgebaut: Einige Datenpakete sind gleicher als andere. Die priorisierten Pakete werden in der Warteschlange der Router beziehungsweise der Switches immer bevorzugt an den Ausgangs-Port übermittelt, während die nicht priorisierten Pakete „normal“ weitergeleitet werden. Als Ergebnis erhält man problemfreie und saubere Sprach- und Videoströme. Dies gilt auch noch dann, wenn das Netzwerk hoch belastet ist. Dies setzt jedoch voraus, dass stromaufwärts vom Datacenter alle Netzkomponenten oder Teilnetze, die am Transit der Echtzeitdaten beteiligt sind, die gleichen Verkehrsklassen und Priorisierungsregeln unterstützen.

Anbieter zum Thema

zu Matchmaker+

  1. Echtzeit im Datacenter
  2. Simulation vor dem Rollout
  3. Echtzeit-Monitoring zur Über-wachung des Applikationsbetriebs
  4. Fazit

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Server, Datacenter

Matchmaker+