Schnell und intelligent im Netz
Kritische und wichtige Daten müssen auch in hochperformanten konvergenten Netzen bevorzugt behandelt werden, dafür sorgen Gigabit-Ethernet-LAN-Switches mit Datenpriorisierung. Wie schnell und intelligent er diese Technologie beherrscht, musste jetzt ein Nachzügler aus Fernost in unseren Real-World Labs beweisen.

Die Chinesen kommen nicht, sie sind schon längst da – auch und insbesondere in der IT-Landschaft. Davon konnte sich nicht zuletzt der interessierte Messebesucher auf der diesjährigen Cebit in Hannover überzeugen. Dass Switches aus Fernost nicht nur billig, sondern auch gut sein können, hat in unserem letzten Vergleichstest (siehe NWC 4/05, S.14 ff.) die taiwanesische D-Link bewiesen. Als Nachzügler stand nun der »Quidway S5024G« der in der VR China beheimateten Huawei in unseren Labs. Da wir den chinesischen Nachzügler nach unserem standardisierten Testverfahren getestet haben, konnten wir die Messergebnisse entsprechend auswerten und direkt in Relation zu den Leistungen der Switches im Testfeld des vorhergegangenen Vergleichstests stellen und in unsere Report-Card einreihen.
Messergebnisse mit Strict-Priority-Switching in Prozent
Das Testfeld
Gigabit-Ethernet-Switches
- Allied Telesyn AT-9924T
- Dell PowerConnect 6024
- D-Link DXS-3350SR
- Extreme Networks Summit 400-48T
- HP ProCurve Switch 5308x
- Huawei Quidway S5024G
- SMC TigerSwitch 8648T
In vielen Ethernet-basierten Unternehmensnetzen sorgen Lastspitzen immer wieder dafür, dass es im Netz eng wird, und dann kommt es je nach Aus- und Überlastung zu teils erheblichen Datenverlusten. Aber auch andere übertragungstechnische Parameter, wie Latency oder Jitter, können – wenn sie gewisse Toleranzwerte überschreiten, weil beispielsweise das Netzwerk und seine Komponenten überfordert sind, zu Störungen einzelner Services oder auch der gesamten Kommunikation führen. Im Zeitalter konvergenter Netze, die Echtzeitapplikationen wie Voice- und Video-over-IP aber auch Produktionsteuerungsdaten in das klassische Datennetz integrieren, führen Datenverluste und andere Störungen in der Praxis zu empfindlichen Kommunikationsstörungen und Produktionsausfällen. So haben in realen Projekten schon mangelhaft priorisierende Switches ganze Call-Center außer Betrieb gesetzt. Zu den Auswirkungen von Datenverlusten und den in den Switches implementierten Qualitätssicherungsmechanismen verweisen wir an dieser Stelle auf die ausführlichen Darstellungen in unseren beiden Artikeln in Network Computing 4/2005 (S. 14ff und S. 52ff).
Das Real-World-Labs-Testszenario
Wir wollten wissen, wie gut Queuing-Mechanismen heute in aktuellen LAN-Switches arbeiten und ob es mit ihnen möglich ist, die gewünschte Policy zu realisieren. Aus diesem Grund haben wir alle Class-of-Service-fähigen LAN-Switches einer umfangreichen Testprozedur unterzogen. Um unseren Test wie gewohnt im Vorfeld sauber zu strukturieren, haben wir zur Definition unserer Test-Spezifikation, die wir an alle einschlägigen Hersteller gesandt haben, wieder auf unser Modellunternehmen Highfair zurückgegriffen.
Das Modellunternehmen Highfair möchte neben den klassischen Datenapplikationen und Voice-over-IP weitere Real-Time-Applikationen in ihr Unternehmensnetz integrieren. Ein geeigneter Vergleichstest sollte evaluieren, welche Switches für diese Aufgaben auch unter entsprechender Last geeignet sind. Dabei sollten verschiedene CoS-Queuing-Mechanismen, wie Strict-Priority-Queuing, Weighted-Fair-Queuing oder Weighted-Round-Robin, auf ihre Eignung für das geplante Szenario untersucht werden.
Folgende Dienste sollen im LAN der Highfair integriert werden:
- Videokonferenzen
- (Video-over-IP, bidirektional, unicast),
- Videodistribution (Multicast-Betrieb),
- Voice-over-IP (Call-Center),
- SAP-Anwendungsdaten sowie
- übrige Datenanwendungen und Updates.
Um die möglichst absolute Störungsfreiheit der Kommunikations- und Arbeitsprozesse im Unternehmen zu garantieren, ist eine vierstufige Daten-Priorisierung sowie eine intelligente Queuing-Policy erforderlich. Gefordert ist für die Switches neben der Datenpriorisierung ein intelligentes Bandbreitenmanagement, das es ermöglicht, von vorneherein eine Überlastung des Backbones zu vermeiden. Daraus ergaben sich folgende Anforderungen an die Teststellungen:
- Layer-3-Gigabit-Ethernet-Switch,
- mindestens 20 Gigabit-Ethernet-Kupfer-Ports (RJ45-Stecker),
- Datenpriorisierung nach IEEE 802.1p/Q auf Layer-2,
- Diffserv-Datenpriorisierung nach RFC 2474 oder
- Type-of-Service-Datenpriorisierung nach RFC 791 und/oder 1349 auf Layer-3,
- mindestens zwei CoS-Queuing-Mechanismen, wie Strict-Prioriry-Queuing, Weighted-Fair-Queuing oder Weighted-Round-Robin, die softwareseitig konfiguriert werden können, sowie
- Multicast-Funktionalität (IGMP-Snooping).
Als Testverfahren haben wir Messungen nach RFC 2544 (Many-to-One) festgelegt, die die Parameter Performance, Packet-Loss, Latency und Jitter ermitteln. Analysiert wird dann das unterschiedliche Verhalten der Systeme in den verschiedenen CoS-Queuing-Modi.
Unsere Testspezifikation haben wir an die einschlägigen Hersteller geschickt und diese eingeladen, an unserem Vergleichstest in unseren Real-World Labs an der FH Stralsund teilzunehmen. Das Feld der Gigabit-Ethernet-Switches bildeten schließlich Allied Telesyns »AT-9924T«, Dells »PowerConnect 6024«, D-Links »DXS-3350SR«, Extreme Networks »Summit 400-48T«, HPs »ProCurve Switch 5308x« und SMCs »TigerSwitch 8648T«. Wie sich diese Systeme verhalten haben, steht in Network Computing 4/2005. Als Nachzügler konnten wir nun noch Huaweis »Quidway S5024G« dem gleichen Testverfahren unterziehen und unser Vergleichstestfeld so um einen weiteren Switch ausbauen.
Der Huawei-Switch im Test
Messtechnisch sind die einzelnen CoS-Queuing-Verfahren zum Teil schlecht auseinander zu halten, da sie unter entsprechenden Lasten zu einem ähnlichen Verhalten der Systeme führen. Dieser Fakt ist aber auch nicht weiter problematisch, da für einen möglichst störungsfreien Netzwerkbetrieb das konkrete Switching-Verhalten der Systeme und nicht die dahinter stehenden Mechanismen und Theorien entscheidend sind. Konkret haben wir zwei Policies isoliert und messtechnisch untersucht. Zunächst sollten die Switches eine Strict-Priority-Policy umsetzen. Hier kam es vor allem darauf an, dass die Daten der höchsten Priorität unter allen Umständen weitergeleitet werden sollten. Als zweites Testszenario haben wir dann mit Bandbreitenmanagement gearbeitet. Hier sollten die Systeme den Datenströmen aller vier Prioritäten Maximalbandbreiten garantieren, um einem Zusammenbruch der Anwendungen niedrigerer Prioritäten bei Überlast vorzubeugen.
Aus den Ergebnissen von Performance-Messungen wie den von uns durchgeführten ist gut zu erkennen, ob, und wenn ja, in welchem Bereich, das jeweilige System Schwierigkeiten hat. Arbeitet der so belastete Switch korrekt, muss er in allen Fällen gemäß den »Class-of-Service-Regeln« die niedrig priorisierten Daten zugunsten der höher priorisierten verwerfen. Ein Datenverlust in der höchsten Priorität dürfte bei allen unseren Strict-Priority-Tests theoretisch nicht vorkommen, nur so würde der jeweilige Switch die fehlerfreie Übertragung der am höchsten priorisierten Echtzeitapplikation, beispielsweise einer Video-Konferenz, garantieren.
Für die Switches sind pro Zeiteinheit um so mehr Header-Informationen auszuwerten, um so kleiner die einzelnen Datenrahmen sind. Ein Switch wird also zuerst Probleme mit 64-Byte-Datenströmen bekommen, wenn er bei der internen Verarbeitungsgeschwindigkeit an seine Grenzen stößt. Bei großen Datenrahmen können je nach Design dagegen schneller Probleme mit dem Speichermanagement beziehungsweise mit der Größe des überhaupt verfügbaren Pufferspeichers entstehen.
Strict-Piority-Switching
In unserem Gigabit-Ethernet-Switch-Test haben wir ausschließlich die Gigabit-Ethernet-Ports der Systeme im Test eingesetzt. Um die notwendigen Lasten erzeugen zu können haben wir mit unseren Smartbits auf 16 Gigabit-Ethernet-Eingangs-Ports gesendet und vier Gigabit-Ethernet-Ausgangs-Ports adressiert. In diesem Test-Setup beträgt die maximale Überlast am Switch-Ausgang 400 Prozent.
Da wir die Switches systematisch überlastet haben, kam es bei einer maximalen Last von 100 Prozent auf den Eingangsports zu einer vierfachen Überlastung der Ausgangsports. Dadurch ist es natürlich normal, dass die Switches im Test viele Frames nicht übertragen konnten und somit viele Frames verloren. Anhand der Verteilung der einzelnen Prioritäten oder der einzelnen resultierenden Bandbreiten konnten wir dann erkennen, ob und wenn ja wo der jeweilige Testkandidat Probleme hatte.
In einer ersten Messreihe haben wir zunächst Strict-Piority-Switching gefordert und untersucht. In unseren Tests haben wir jeweils mit unseren Smartbits-Lastgeneratoren Datenströme auf die Eingangs-Ports gesendet und diese Datenströme auf die Ausgangsports adressiert. Hierbei haben wir Datenströme in den vier Layer-2-und Layer-3-Prioritäten – VLAN 7, 5, 3 und 1 nach IEEE 802.1p/Q und Diffserv/ToS 1, 3, 5 und 7 nach RFC 2474 – erzeugt. Die Eingangslast wird hierbei schrittweise erhöht, so dass die Last an den Eingangsports 25, 33,33, 50 und 100 Prozent betrug, was bei einer vierfachen Überlast einer Last am Ausgangsport von 100, 133, 200 und 400 Prozent entspricht. Die Datenströme bestanden aus konstant großen Frames von jeweils 64, 128, 256, 512, 1024, 1280 und 1518 Byte. Alle Messungen haben wir zunächst mit Burst-Size 1 und dann mit Burst-Size 100 durchgeführt, um auch aussagefähige Ergebnisse in Bezug auf die Puffer-Speicherkapazität der zu untersuchenden Switches zu erhalten. Für die Ergebnisse haben wir die für CoS wichtigen Parameter Frame-Loss, Latency und Jitter ausgewertet. Im Mittelpunkt unserer Analysen steht dabei wegen seiner Bedeutung für die Übertragungsqualität das Datenverlustverhalten.
Verhält sich ein Switch anforderungsgerecht, dann verliert er bei 100 Prozent Last am Ausgangsport noch keine Daten. Bei 133 Prozent Last sollte er dann Totalverlust der niedrigsten Priorität erzeugen, die anderen Streams sollten ohne Verluste ankommen. Bei 200 Prozent Last sollte der Switch dann die Daten der beiden niedrigen Prioritäten komplett verlieren und die beiden hohen Prioritäten ungehindert passieren lassen. Bei Volllast ist dann bei einer Last am Ausgangsport von 400 Prozent ein Totalverlust aller Prioritäten mit Ausnahme der höchsten erforderlich, damit die höchste Priorität noch verlustfrei verarbeitet werden kann. Die Daten der höchsten Priorität sollten also in allen Fällen unbeschadet die Systeme passieren.
Bei den Messungen mit Layer-2-Priorisierung und einer Burst-Size von 1 Frame arbeitete Huaweis Quidway-S5024G anforderungsgemäß und leistete sich keinerlei ungebührlichen Datenverluste. Dann haben wir die Messungen mit einer Burst-Size von 100 Frames wiederholt. Hier stellten sich die ersten Probleme bei den Messungen mit großen Frames ein. Blieben die Verluste bei der Messung mit 1024-Byte-Frames noch bei Verlustraten zwischen rund 1,4 in der zweithöchsten und 2,5 Prozent in der niedrigsten Prio- rität, so verwarf der Switch bei den Messungen mit den größten Datenrahmen bereits bei 100 Prozent Last zwischen rund 32 und 34 Prozent in den genannten Queues, obwohl hier theoretisch noch überhaupt keine Datenverluste nötig gewesen wären. Über alle Prioritäten hinweg waren das im Mittel rund 25 Prozent Datenverlust zu viel. Lediglich die höchste Priorität blieb hier weitgehend von ungebührlichen Datenverlusten verschont. Bei den Messungen mit 200 Prozent Last, einer Burst-Size von 100 Frames und großen Datenrahmen war das Problem des Switches erneut sichtbar. So verlor er bei dieser Messung mit 1518-Byte-Frames zu Lasten der zweithöchsten Priorität, die immerhin über 32 Prozent der Daten verlor, zu wenig Daten in der zweitniedrigsten Priorität. Bei Volllast waren diese Probleme nicht mehr sichtbar, da die Daten der höchsten Priorität stets zuverlässig verarbeitet wurden und in den übrigen Prioritäten auf Grund der Überlast ohnehin ein Totalverlust zu erwarten war.
Mehr Probleme hatte der Huawei-Switch bei unseren Messungen mit Layer-3-Priorisierung. Hier teilten sich unabhängig von der Frame-Größe die höchste und die zweithöchste Priorität die restliche zur Verfügung stehende Bandbreite. Dieses Verhalten bedeutete unerwünschte Verlustraten in der höchsten Priorität von durchgehend rund 50 Prozent. Bei den gleichen Messungen mit einer Burst-Size von 1 Frame zeigte sich die gleiche Schwäche in der höchsten Priorität bei Volllast. Hinzu kam noch das Problem mit großen Datenrahmen, das wir schon bei den Messungen mit Layer-2-Priorisierung beobachtet hatten. Hier verwarf der Switch schon bei 100 Prozent Last und 1518-Byte-Paketen zwischen rund 18 Prozent in der höchsten und rund 38 Prozent in der niedrigsten Priorität, obwohl hier noch gar keine Datenverluste erforderlich gewesen wären. Bei 200 Prozent Last waren dann auch schon ab einer Frame-Größe von 512 Byte massive Verluste von gut 25 Prozent in der höchsten Piorität zu beobachten.
Switching mit Bandbreitenmanagement
Auch in unseren Tests mit Bandbreitenmanagement haben wir jeweils mit unseren Smartbits Datenströme auf die Eingangs-Ports gesendet und diese Datenströme auf die Ausgangsports adressiert. Hierbei haben wir Datenströme in den vier Layer-2- und Layer-3-Prioritäten – VLAN 7, 5, 3 und 1 nach IEEE 802.1p/Q und Diffserv/ToS 1, 3, 5 und 7 nach RFC 2474 – erzeugt. Die Eingangslast wird hierbei schrittweise erhöht, so dass die Last an den Eingangsports 25, 33,33, 50 und 100 Prozent betrug, was bei einer vierfachen Überlast einer Last am Ausgangsport von 100, 133, 200 und 400 Prozent entspricht.
Die Datenströme bestanden aus konstant großen Frames von jeweils 64, 128, 256, 512, 1024, 1280 und 1518 Byte. Die Burst-Size betrug hierbei 1 beziehungsweise 100 Frames. Als Maximalbandbreiten haben wir für die höchste Priorität VLAN beziehungsweise Diffserv/ToS 7 10 Prozent, für VLAN beziehungsweise Diffserv 5 20 Prozent, für VLAN beziehungsweise Diffserv 3 30 Prozent und für VLAN beziehungsweise Diffserv 1 40 Prozent gefordert. Für die Ergebnisse haben wir dann Frame-Loss, Latency und Jitter ausgewertet. Im Mittelpunkt auch dieser Analysen steht wegen seiner Bedeutung für die Übertragungsqualität das Datenverlustverhalten.
Bei der Priorisierung mit Bandbreitenmanagement sind zwei grundsätzlich unterschiedliche Verhaltensweisen der Switches zu unterscheiden: Rate-Limited-Switching und Weighted-Switching. Beim Rate-Limited-Switching garantiert der Switch den entsprechend konfigurierbaren Bandbreitenanteilen der einzelnen Prioritäten nicht nur eine Mindestbandbreite, er »deckelt« quasi auch die Durchsätze, indem er übrige Bandbreiten, die ein Dienst, dem sie zur Verfügung stehen, derzeit nicht benötigt, auch nicht für andere Dienste verfügbar macht. Eine solche Funktionalität ist insbesondere für den Edge-Bereich je nach Policy unverzichtbar, weil es so möglich ist, der Entstehung von Überlasten bereits in der Netzwerkperipherie vorzubeugen. Switches im Core-Bereich sollten dagegen die Mindestbandbreiten für die ihnen zugeordneten Dienste reservieren. Wenn diese Dienste die ihnen zustehenden Bandbreiten aber nicht benötigen, dann sollten andere Dienste freie Bandbreiten über die ihnen selbst zustehenden hinaus ruhig nutzen können. Ansonsten wird die insgesamt im Core-Bereich zur Verfügung stehende Bandbreite unnötig verringert. Ein solches Verhalten kann aber auch erwünscht sein. Um den verschiedenen Mechanismen gerecht zu werden, haben wir hier ausschließlich das Verhalten der Systeme bei Volllast gewertet, da dann unabhängig vom verwandten Mechanismus die gleichen Maximalbandbreiten für die jeweilige Priorität eingehalten werden müssten.
Bei unseren Messungen mit Bandbreitenmanagement arbeitete der Quidway-S5024G recht zuverlässig. Generell blieben die Abweichungen der gemessenen Datenverluste immer unter 1 Prozent. So verlor der Huawei-Switch bei den Layer-2-Messungen mit einer Burst-Size von einem Frame und 64-Byte-Paketen rund 0,01 Prozent in der höchsten Priorität zu wenig und 0,05 Prozent in der niedrigsten Priorität zu viel Daten. Bei der selben Messung mit dem größten Frame-Format verwarf der Switch in der höchsten Priorität 0,1 Prozent und in der niedrigsten Priorität 0,3 Prozent zu viele Daten. Die Wiederholung dieser Messung mit einer Burst-Size von 100 Frames brachte praktisch die gleichen Ergebnisse. Und auch der Wechsel zur Layer-3-Priorisierung erzielte keine signifikant anderen Resultate.
So testete Network Computing
Als Lastgenerator und Analysator haben wir in unseren Real-World Labs einen »Smartbits 6000B Traffic Generator/Analysor« von Spirent Communications eingesetzt. Das in dieser Konfiguration rund 320000 Euro teuere System ist mit der Software »SmartFlow« ausgestattet und mit 24 Gigabit-Ethernet-Kupfer-Ports bestückt. Alle Ports können softwareseitig als Lastgeneratorausgang und/oder als Analysatoreingang eingesetzt werden. Die Class-of-Service-Eigenschaften der Switches im Testfeld haben wir in verschiedenen Testreihen gemäß RFC 2544 (vgl.: www.ietf.org/rfc/rfc2544.txt) gemessen. In diesen Tests haben wir die Priorisierung auf Layer-2 nach IEEE 802.1p/Q untersucht. In unseren Testszenarien »Gigabit-Ethernet-Switches« haben wir verschieden priorisierte Datenströme von 16 Eingangsports auf vier Ausgangsports gesendet. Die die Priorisierung festlegenden Bits haben wir im Header der Datenrahmen mit drei Bits nach IEEE 802.1p auf Layer-2 und nach ToS beziehungsweise Diffserv auf Layer-3 festgelegt. Durch eine gezielte Überlastung der Switches in diesen Tests ist es möglich, das genaue Datenverlustverhalten sowie weitere Testparameter wie Latency oder Jitter zu ermitteln, das Leistungspotential der untersuchten Switches zu analysieren und deren Eignung für bestimmte Einsatzszenarien zu prüfen.
Fazit
Klare Probleme beim Strict-Piority-Switching insbesondere mit großen Datenrahmen und bei der Layer-2-Priorisierung müssen wir dem Quidway-S5024G von Huawei bescheinigen. In der Disziplin Bandbreitenmanagement konnten wir dem Switch aus Fernost dagegen keine nennenswerten Probleme nachweisen. Insgesamt ist das ein recht gutes Ergebnis für Huawei. Wenn auch der Quidway-S5024G noch deutliche Schwächen hat, er braucht den Vergleich mit der etablierten Konkurrenz nicht zu scheuen. Die Note »A-« und ein guter zweiter Platz im Testfeld sind eine respektable Leistung.
Allerdings: Unser Test misst den Huawei-Switch am aktuellen Stand der Technik – und der ist leider immer noch nicht so gut wie er sein sollte, obwohl die gemessenen Class- oder – wie immer wieder in den Datenblättern genannt – Quality-of-Service in der Ethernet-Welt schon lange keine neuen Features mehr sind. Dabei werden gerade diese Priorisierungsmechanismen mit der Einführung von Voice-over-IP und anderen echtzeitfähigen Applikationen wichtiger als je zuvor. Daher gilt der Rat, grundsätzlich dafür zu sorgen, dass es im Netzwerk erst gar nicht eng wird, und die Systeme auszuwählen, die für die gewünschte Policy auch geeignet sind. Und bei größeren Netzwerkprojekten kommen die Verantwortlichen eigentlich nicht darum herum, die Eigenschaften der in Frage kommenden Systeme in qualifizierten Tests zu überprüfen, wenn sie auf Nummer Sicher gehen wollen.
Prof. Dr. Bernhard G. Stütz, [ dg ]