Im Betriebsmodus »Unicast-Gigabit-Ethernet intern« haben wir mit unserem Lastgenerator/Analysator Last erzeugt und nacheinander auf 28 Gigabit-Ethernet-Eingangsports des zu testenden Switches gesendet. Die Datenströme haben wir dann nacheinander an sieben Gigabit-Ethernet-Ports desselben Switches adressiert und mit dem Lastgenerator/Analysator analysiert, so dass wir eine maximal vierfache Überlast erzeugen konnten.
Im selben Betriebsmodus haben wir dann auch die 10-Gigabit-Ethernet-Ports belastet. Hierzu haben wir nacheinander die Datenströme an vier 10-Gigabit-Ethernet-Ports und an einen 10-Gigabit-Ethernet-Port adressiert.
Dann haben wir die Datenströme an sechs 10-Gigabit-Ethernet-Ports gesendet und an 15 Gigabit-Ethernet-Ports adressiert. Zuletzt adressierten 36 Gigabit-Ethernet-Ports einen 10-Gigabit-Ethernet-Port. Bei diesen Messungen erzeugten wir jeweils eine maximale Überlast von 400 Prozent, im letzten Fall von 360 Prozent.
Sendeten 28 Gigabit-Ethernet-Eingangsports an sieben Gigabit-Ethernet-Ausgangsports, kam der Blackdiamond mit kleinen Frames recht gut zurecht. Er verhielt sich bei unseren Messungen mit 64-Byte- und 128-Byte-Paketen exakt nach den Strict-Priority-Regeln und verwarf grundsätzlich die niedriger priorisierten Daten zu Gunsten der hoch priorisierten.
Bei Volllast bedeutete das Totalverlust der drei niedrigeren Prioritäten zu Gunsten der am höchsten priorisierten Daten. Die kamen auch bei Volllast verlustfrei durch. Ab einem Frame-Format von 256 Byte waren dann auch Datenverluste in der höchsten Priorität zu verzeichnen. Bei der Messung mit 256-Byte-Paketen gingen fast 8 Prozent der am höchsten priorisierten Daten verloren.
Ein weiteres Einsatzszenario: Das Kernstück des Corporate Network bilden zwei Black Diamon 8810. Als Ergänzung dienen Edge-Switches der "Summit"-Reihe von Extreme.
Dafür verwarf der Switch nicht alle Daten der zweithöchsten Priorität. Bei unseren Messungen mit 512 bis 1518 Byte großen Frames gingen dann jeweils gut 31 Prozent der am höchsten priorisierten Daten verloren.
Sendeten dann vier 10-Gigabit-Ethernet-Ports an einen 10-Gigabit-Ethernet-Port, war die Priorisierungswelt wieder in Ordnung. Hier leistete sich der Blackdiamond keinerlei außerplanmäßigen Datenverluste. Auch als wir mit sechs 10-Gigabit-Ethernet-Ports auf 15 Gigabit-Ethernet-Ports sendeten, verhielt sich der Switch über eine lange Strecke unauffällig.
Mit großen Frames bekam er dann allerdings auch sichtbare Probleme. So gingen bei der Messung mit den größten Frames rund 4,5 Prozent aller hoch priorisierten Frames verloren.
Ein ähnliches Bild ergab sich auch bei der letzten Unicast-QoS-Messung. Hier sendeten 36 Gigabit-Ethernet-Ports auf einen 10-Gigabit-Ethernet-Port. Außerplanmäßige Datenverluste in der höchsten Priorität ergaben sich hier ausschließlich bei unserer Messung mit den größten Frames. Hierbei gingen dann gut 11 Prozent der Daten in der höchsten Priorität verloren.
Im Betriebsmodus »Unicast-Trunk« haben wir zwei baugleiche Switches in Reihe geschaltet. Dabei haben wir wieder mit unserem Lastgenerator Last erzeugt und auf vier Gigabit-Ethernet- beziehungsweise vier 10-Gigabit-Ethernet-Eingangsports des jeweils zu testenden Switches gesendet. Über vier Ausgangsports des ersten Switches, die einen Trunk bildeten, haben wir dann vier Gigabit-Ethernet- beziehungsweise vier 10-Gigabit-Ethernet-Ports des zweiten Switches adressiert.
Die Gigabit-Ethernet- beziehungsweise 10-Gigabit-Ethernet-Eingangsports des zweiten Switches haben dann die Datenströme an vier Gigabit-Ethernet- beziehungsweise 10-Gigabit-Ethernet-Ausgangsports desselben Switches gesendet. In diesem Szenario haben wir stets maximal eine zweifache Überlast erzeugt.
Die Trunking-Technologie ermöglicht das Bündeln von mehreren Ports zu einer logischen Verbindung zwischen zwei Switches. Den Trunk-Mechanismus realisieren die Switch-Hersteller heute so, dass alle Datenströme, die über den Trunk gesendet werden sollen, in jeweils eine Queue pro Port laufen. Jeder Trunk-Port hat seine eigene Hardware-Queue. Die einzelnen Datenpakete, die über den Trunk gesendet werden sollen, werden mittels proprietärer Hash-Algorithmen den einzelnen Queues zugewiesen, ohne Rücksicht auf die Auslastung des jeweiligen Ports zu nehmen.
Die Hash-Algorithmen verwenden Teile der IP-Adressen und Teile der Portnummern der sendenden und / oder der empfangenden Systeme. Die Hersteller halten ihre Algorithmen geheim und wir dürfen diese aus rechtlichen Gründen hier auch nicht veröffentlichen.
In vorhergehenden Tests stellte sich bereits heraus, dass für alle Switches Situationen erzeugbar waren, in denen die Algorithmen für eine gleichmäßige Verteilung der Datenströme sorgten. Andererseits kam es aber auch bei allen Systemen zu Situationen, in denen die Verteilung der Datenströme sehr unsymmetrisch erfolgte. Jede Leitung hat ihre eigene Queue, daher werden die Datenströme unabhängig voneinander abgearbeitet.
Das hatte dann deutliche Performance-Einbußen zur Folge, weil der »verstopfte« Port einen Rückstau in der davor geschalteten Queue verursachte. Dabei verhielten sich die Switches nicht eindeutig für den Administrator vorhersagbar, da dieser den Algorithmus nicht kennt und zudem die Absenderportnummern in der Regel dynamisch vergeben werden, was er zumeist nicht kontrollieren kann.
Generell gilt allerdings bei diesem Verhalten, dass bei steigender Anzahl der IP-Adressen im Subnetz auch die Verteilung der Datenströme im Trunk gleichmäßiger wurde. Da es sich hierbei um ein konzeptionelles Problem handelt, das allen aktuellen Switches gemeinsam ist, haben wir einen Test durchgeführt, der das Verhalten exemplarisch darstellt.
Ansonsten haben vorhergehende Tests gezeigt, dass für alle getesteten Switches Szenarien möglich sind, in denen die Systeme die Datenströme gleichmäßig verteilten, und solche, in denen sie sehr asymmetrisch arbeiten und somit auf schlechte Durchsatzleistungen kommen.
Bei unserer Trunk-Messung mit den 10-Gigabit-Ethernet-Ports verhielt sich der Blackdiamond-Switch mustergültig. Da bei dieser Messung maximal eine zweifache Überlast zu bewältigen war, musste der Switch hier die beiden niedrigen Prioritäten zu Gunsten der beiden hohen Prioritäten verwerfen. Die Datenströme der beiden hohen Prioritäten sollten auf alle Fälle immer verlustfrei an ihrem Ziel ankommen. Exakt dieses Verhalten haben unsere Trunk-Messungen dann auch ergeben. Somit hat der Blackdiamond dieses Klassenziel voll erfüllt.