Alle drei Systeme des Langzeittests liefern als Vmware-Hosts gute Ergebnisse ab. Trotz messbarer Performance-Unterschiede der Plattformen macht es sich im Alltagsbetrieb nicht bemerkbar, ob die VMs auf Xeons oder Opterons arbeiten. I
m Test stellt sich dafür klar heraus, dass zu wenige LAN-Interfaces pro Host die Performance massiv beeinträchtigen. Ebenso lässt die Geschwindigkeit der VMs spürbar nach, wenn die Massenspeicheranbindung der Hosts zu schmalbandig ausfällt.
Professionelle iSCSI-Storage-Systeme wie die von Network Computing verwendeten Dell Equallogic-PS-Arrays genügen für kleinere Cluster ? vorausgesetzt, die IP-SAN-Anbindung der Hosts arbeitet schnell genug. Bei größeren Verbänden führt nach wie vor kein Weg an einem FC-SAN mit 4-GBit/s-Anbindung von Hosts und Speichersystemen vorbei.
Die Konfiguration der Maschinen in Poing erlaubt es, auf dem Cluster sowohl Testsysteme, als auch produktive VMs zu fahren. Dem Testgedanken kommt es dabei entgegen, dass im Verband Rechner mit verschiedenen CPU-Architekturen vorkommen und eine Anbindung zu zwei verschiedenen SANs besteht.
Für eine rein produktive Installation würde Network Computing die folgende Architektur empfehlen: Ob der Anwender lieber AMD- oder Intel-Prozessoren verwendet, ist technisch wenig relevant.
Stand heute arbeiten Intel-Server bei gleicher Core- und Socket-Zahl ein wenig schneller ? was in der Praxis kaum auffält, kosten dafür aber auch mehr Geld. Wichtig ist, dass das Stepping aller CPUs im Cluster gleich bleibt, da sonst Vmotion nicht funktioniert.
Ein FC-SAN ist die absolut erste Wahl für einen Cluster. In diesem Fall empfiehlt es sich, in den Servern vollständig auf lokale Platten zu verzichten und die Hosts gleich vom SAN zu starten. Jeder Vmware-Host braucht zusätzlich zu den zwei Onboard-NICs je nach Zahl und Aufgaben der VMs zwischen zwei und vier weitere Ethernet-Schnittstellen, sonst bringt die ganze schneller Rechner-Hardware nicht viel.