Unicast-Trunk
- Schwarzer Diamant
- Fully-Meshed
- Unicast-Trunk
- Multicast

Im Betriebsmodus »Unicast-Trunk« haben wir zwei baugleiche Switches in Reihe geschaltet. Dabei haben wir wieder mit unserem Lastgenerator Last erzeugt und auf vier Gigabit-Ethernet- beziehungsweise vier 10-Gigabit-Ethernet-Eingangsports des jeweils zu testenden Switches gesendet. Über vier Ausgangsports des ersten Switches, die einen Trunk bildeten, haben wir dann vier Gigabit-Ethernet- beziehungsweise vier 10-Gigabit-Ethernet-Ports des zweiten Switches adressiert. Die Gigabit-Ethernet- beziehungsweise 10-Gigabit-Ethernet-Eingangsports des zweiten Switches haben dann die Datenströme an vier Gigabit-Ethernet- beziehungsweise 10-Gigabit-Ethernet-Ausgangsports des selben Switches gesendet. In diesem Szenario haben wir stets maximal eine zweifache Überlast erzeugt.
Die Trunking-Technologie ermöglicht das Bündeln von mehreren Ports zu einer logischen Verbindung zwischen zwei Switches. Den Trunk-Mechanismus realisieren die Switch-Hersteller heute so, dass alle Datenströme, die über den Trunk gesendet werden sollen, in jeweils eine Queue pro Port laufen. Jeder Trunk-Port hat seine eigene Hardware-Queue. Die einzelnen Datenpakete, die über den Trunk gesendet werden sollen, werden mittels proprietärer Hash-Algorithmen den einzelnen Queues zugewiesen, ohne Rücksicht auf die Auslastung des jeweiligen Ports zu nehmen. Die Hash-Algorithmen verwenden Teile der IP-Adressen und Teile der Portnummern der sendenden und / oder der empfangenden Systeme. Die Hersteller halten ihre Algorithmen geheim und wir dürfen diese aus rechtlichen Gründen hier auch nicht veröffentlichen.
In vorhergehenden Tests stellte sich bereits heraus, dass für alle Switches Situationen erzeugbar waren, in denen die Algorithmen für eine gleichmäßige Verteilung der Datenströme sorgten. Andererseits kam es aber auch bei allen Systemen zu Situationen, in denen die Verteilung der Datenströme sehr unsymmetrisch erfolgte. Jede Leitung hat ihre eigene Queue, daher werden die Datenströme unabhängig voneinander abgearbeitet. Das hatte dann deutliche Performance-Einbußen zur Folge, weil der »verstopfte« Port einen Rückstau in der davor geschalteten Queue verursachte. Dabei verhielten sich die Switches nicht eindeutig für den Administrator vorhersagbar, da dieser den Algorithmus nicht kennt und zudem die Absenderportnummern in der Regel dynamisch vergeben werden, was er zumeist nicht kontrollieren kann.
Generell gilt allerdings bei diesem Verhalten, dass bei steigender Anzahl der IP-Adressen im Subnetz auch die Verteilung der Datenströme im Trunk gleichmäßiger wurde. Da es sich hierbei um ein konzeptionelles Problem handelt, das allen aktuellen Switches gemeinsam ist, haben wir einen Test durchgeführt, der das Verhalten exemplarisch darstellt. Ansonsten haben vorhergehende Tests gezeigt, dass für alle getesteten Switches Szenarien möglich sind, in denen die Systeme die Datenströme gleichmäßig verteilten, und solche, in denen sie sehr asymmetrisch arbeiten und somit auf schlechte Durchsatzleistungen kommen.
Bei unserer Trunk-Messung mit den 10-Gigabit-Ethernet-Ports verhielt sich der Blackdiamond-Switch mustergültig. Da bei dieser Messung maximal eine zweifache Überlast zu bewältigen war, musste der Switch hier die beiden niedrigen Prioritäten zu Gunsten der beiden hohen Prioritäten verwerfen. Die Datenströme der beiden hohen Prioritäten sollten auf alle Fälle immer verlustfrei an ihrem Ziel ankommen. Exakt dieses Verhalten haben unsere Trunk-Messungen dann auch ergeben. Somit hat der Blackdiamond dieses Klassenziel voll erfüllt.