Unter Teillast kam es hier zu ein paar außerplanmäßigen Datenverlusten, die mit der Frame-Größe anstiegen und in niedrigeren Prioritäten bis über 50 Prozent betrugen. Ab einem Frame-Format von 1024 Byte waren von außerplanmäßigen Datenverlusten auch bis zu rund sechs Prozent der Daten der höchsten Priorität betroffen. Unter Volllast schaffte es der Enterasys-Switch dann aber wieder, die Daten der höchsten Priorität trotz vierfacher Überlast verlustfrei zu transportieren.
Auch Extreme Networks Summit-X450a-24t verhielt sich bei unseren Messungen mit einer Burst-Size von einem Frame absolut mustergültig. Er leistete sich keinerlei nennenswerten außerplanmäßigen Datenverluste und verwarf, sofern das von der Lastsituation her notwendig war, die niedriger priorisierten Daten zu Gunsten der jeweils höher priorisierten.
Verwendeten wir eine Burst-Size von 100 Frames, dann ähnelte das Verhalten des Switches dem der anderen Switches im Testfeld. Unter Teillast kam es zu außerplanmäßigen Datenverlusten, wenn wir Frames der Größen 1024 und 1518 Byte verwendeten. Dabei gingen maximal um die 38 Prozent der Daten in den einzelnen Prioritäten verloren. Dabei leistete sich der Extreme-Networks-Switch bei 100 und 133 Prozent Last und 1518-Byte-Frames den Ausrutscher, jeweils gut 14 Prozent der Daten in der höchsten Priorität zu verlieren.
Unter höheren Lasten beherrschte der Switch dann aber wieder die Strict-Priority-Spielregeln und leistete sich auch bei der hohen Burst-Size keine weiteren Ausrutscher.
Alcatel-Lucents Omniswitch-6850 beherrschte den Multicast-Betrieb mit einer Burst-Size von einem Frame ebenso souverän wie den Unicast-Betrieb. Er leistete sich auch hier keinerlei außerplanmäßigen Datenverluste und verwarf getreu den Regeln der Strict-Priority bei einsprechenden Überlasten die niedriger priorisierten Daten zu Gunsten der höher priorisierten.
Verwendeten wir ein Burst-Format von 100 Frames, kam es zu außerplanmäßigen Datenverlusten, wenn die Frames 1024 Byte groß oder größer waren. Aber auch bei diesen Messungen kam es zu keinerlei außerplanmäßigen Datenverlusten in der höchsten Priorität. Aus diesem Grund arbeitete der Alcatel-Lucent-Switch dann auch unter Volllast tadellos und ließ sich zu keinen weiteren außerplanmäßigen Datenverlusten mehr verleiten.
Enterasys B3G124-24-Securestack-B3 arbeitete auch im Multicast-Betrieb mit einer Burst-Size von einem Frame absolut überzeugend. Wir konnten ihm hier keinerlei außerplanmäßigen Datenverluste nachweisen. Wiederholten wir die Tests mit einem Burst-Format von 100 Frames, so kam auch der Enterasys-Switch an seine Grenzen. Dabei teilte er die Datenverluste recht gleichmäßig unter den Prioritäten 1, 3 und 5 auf.
Absolut stiegen die irregulären Datenverluste mit dem Frame-Format an und erreichten deutliche Höchstwerte. Die Datenströme der höchsten Priorität blieben dabei aber von allen Verlusten frei und gelangten – auch unter vierfacher Überlast – ungehindert an Ziel.
Auch Extreme Networks Summit-X450a-24t ließ sich im Betrieb mit einer Burst-Size von einem Frame keinerlei Schwächen nachweisen. Er arbeitete absolut korrekt und verwarf Datenströme wenn nötig entsprechend den geforderten Regeln.
Wechselten wir zu einer Burst-Size von 100 Frames, waren auch hier wieder ein paar Unregelmäßigkeiten zu registrieren. Allerdings waren die Datenströme der höchsten Priorität hier in keinem Fall von unerwünschten Datenverlusten betroffen.
Die Trunking-Technologie ermöglicht das Bündeln von mehreren Ports zu einer logischen Verbindung zwischen zwei Switches. Diese Methode verspricht die erforderliche Uplink-Bandbreiten einzurichten ohne gleich auf teurere 10-Gigabit-Ethernet-Uplinks ausweichen zu müssen.
Es ist also eine kostengünstige Methode, Edge-Switches performant ans Netzwerk anzubinden. Den Trunk-Mechanismus realisieren die Switch-Hersteller heute so, dass alle Datenströme, die über den Trunk gesendet werden sollen, in jeweils eine Queue pro Port laufen.
Jeder Trunk-Port hat seine eigene Hardware-Queue. Die einzelnen Datenpakete, die über den Trunk gesendet werden sollen, werden mittels proprietärer Hash-Algorithmen den einzelnen Queues zugewiesen, ohne Rücksicht auf die Auslastung des jeweiligen Ports zu nehmen.
Die Hash-Algorithmen verwenden Teile der IP-Adressen und Teile der Portnummern der sendenden und / oder der empfangenden Systeme. Die Hersteller halten ihre Algorithmen geheim und wir dürfen diese aus rechtlichen Gründen hier auch nicht veröffentlichen.
Im Test stellte sich nun heraus, dass für alle Switches Situationen erzeugbar waren, in denen die Algorithmen für eine gleichmäßige Verteilung der Datenströme sorgten. Andererseits kam es aber auch bei allen Systemen zu Situationen, in denen die Verteilung der Datenströme sehr unsymmetrisch erfolgte.
Jede Leitung hat ihre eigene Queue, daher werden die Datenströme unabhängig voneinander abgearbeitet. Das hatte dann deutliche Performance-Einbußen zur Folge, weil der »verstopfte« Port einen Rückstau in der davor geschalteten Queue verursachte.
Dabei verhielten sich die Switches nicht eindeutig für den Administrator vorhersagbar, da dieser den Algorithmus nicht kennt und zudem die Absenderportnummern in der Regel dynamisch vergeben werden, was er in der Regel nicht kontrollieren kann.