Test: Thomas-Krenn Microsoft HCI-Cluster

Server-Hardware für Microsoft HCI-Cluster

11. Juli 2024, 15:00 Uhr | Autor: Christoph Lange | Redaktion: Jörg Schröper
Für den Test des Microsoft HCI-Clusters kamen zwei Rack-Server vom Typ Azure Stack HCI Series RI2212 von Thomas-Krenn zum Einsatz.
© Thomas-Krenn.AG

Für den Aufbau von Microsoft HCI-Clustern bietet Thomas Krenn eine breite Palette an Hardware-Servern an. Die Systeme lassen sich für unterschiedliche Anforderungen passgenau konfigurieren und stellen mit den lokalen Disks ausfallsicheren Storage zur Verfügung.

Thomas Krenn
© WEKA Fachmedien

Zum Test traten zwei Rack-Server an, die sowohl für Azure Stack HCI als auch für Storage Spaces Direct zertifiziert sind.

Ein großer Vorteil von Hyper-Converged Infrastructure (HCI) besteht darin, dass HCI-Systeme dem Hypervisor-Cluster den hochverfügbaren Storage mit den lokal im Server verbauten Disks zur Verfügung stellen. Dies spart Kosten, da keine zusätzlich per Speichernetzwerk angebundenen SAN- oder NAS-Storage-Systeme nötig sind. Für kleinere Unternehmen, Filialstandorte oder Edge-Umgebungen bieten HCI-Systeme eine kostengünstige Möglichkeit, Compute- und Speicherressourcen ausfallsicher bereitzustellen.

Vom Hardware-Hersteller Thomas-Krenn sind verschiedene für HCI-Lösungen von Microsoft zertifizierte Server-Systeme erhältlich. Sie lassen sich sowohl mit Azure Stack HCI als auch mit der klassischen S2D-Lösung (Storage Spaces Direct) einsetzen. Für größere Umgebungen unterstützt Microsoft bis zu 16 Cluster-Nodes in einem Hyper-V-Verbund, auf dem zum Beispiel virtuelle Server oder eine Virtual Desktop Infrastructure laufen können. 

S2D und Azure Stack HCI

Mit Azure Stack HCI legt Microsoft derzeit ein hohes Entwicklungstempo an den Tag. Es kommen in relativ kurzen Abständen neue Funktionen hinzu, vorhandene Features werden optimiert und auch die Verwaltungswerkzeuge passt Microsoft an neue Erfordernisse an. Für einen Einsatz im Unternehmen bedeutet dies, dass sich die IT-Abteilung fortlaufend über die aktuellen Entwicklungsschritte und die damit verbundenen Änderungen informieren muss, um einen störungsfreien Betrieb zu gewährleisten.

Dass dies nicht immer ganz einfach ist, zeigte sich an dem im Mai 2024 von Microsoft veröffentlichten Azure Stack HCI Release 23H3 24.05. Die neue Version bereitet laut den im Internet vielfältig anzutreffenden Kommentaren deutlich mehr Probleme beim initialen HCI-Cluster-Deployment über das Azure Portal, als es bei der vorherigen Version der Fall war.

Unternehmen, die auf Basis von Azure hybride Cloud-Anwendungen betreiben wollen, müssen diese Mühen wohl oder übel auf sich nehmen. Immerhin bietet Microsoft für Azure Stack HCI eine kostenfreie 60-Tage-Testperiode an. Eine intensive Beschäftigung mit der neuen HCI-Lösung lohnt sich aber auch für alle Unternehmen, die sich bereits jetzt auf den Einsatz von Windows Server 2025 vorbereiten wollen. Die neue Server-Version wird viele der bereits heute in Azure Stack HCI vorhandenen Features enthalten. Dazu zählt beispielsweise mit Network ATC ein Intent-basierendes Verfahren für die Konfiguration und Verwaltung der Netzwerkeinstellungen von Windows-Servern.

Den connect-professional-Test führten wir mit der S2D-HCI-Lösung durch. Sie lässt sich auch als rein konvergente Storage-Lösung einsetzen, bei der die Windows-Server nur die Speicherkapazitäten für virtuelle Rechner bereitstellen, die auf dedizierten Hyper-V-Servern laufen. S2D erfordert wie Azure Stack HCI für die Cluster-Nodes eine Windows-Datacenter-Lizenz, benötigt jedoch keine Verbindung mit einem Azure-Account in der Cloud.

Server-Hardware von Thomas-Krenn

Für den HCI-Test stellte der Server-Hersteller Thomas-Krenn zwei Rack-Server vom Typ AzSHCI Series RI2212 (v5) zur Verfügung. Mit dem Online-Konfigurator lassen sich Server-Bestellungen individuell konfigurieren. Der Hersteller bietet zudem einen Infrastructure-Deployment-Service an, der zum Beispiel nur die OS-Vorinstallation oder eine vollständige Azure-Stack-HCI- oder S2D-Bereitstellung umfasst.

Die Test-Server verfügten über zwölf 3,5-Zoll-Disk-Einschübe, die sich auf zwei Höheneinheiten verteilten. Jedes System war mit vier NVMe-SSDs mit einer Kapazität von 800 GByte pro Disk und 128 GByte RAM bestückt. Das Betriebssystem lief auf einer zusätzlichen internen M.2-NVMe-SSD. Die Rechenleistung lieferten zwei Intel Xeon Silver 4509Y (V5) CPUs, die 2,6 GHz und acht physische CPU-Cores aufwiesen.

Die Server sind mit verschiedenen CPU-Modellen von Intel oder AMD lieferbar. Für die Netzanbindung waren die Server mit vier 10-GBit/s-RJ45-LAN-Ports ausgestattet, um die Management- und VM-Netzwerke redundant auslegen zu können. Die Storage-Verbindung erfolgte über zwei 25-GBit/s-SFP-Ports, die von einer Mellanox-Dual-Port-Karte bereitgestellt wurden. Da es sich bei dem Testsystem um einen 2-Node-Cluster handelte, konnten wir die Storage-Ports mit Hilfe von zwei Direct Attached Cables (DAC) direkt miteinander verbinden.

Anbieter zum Thema

zu Matchmaker+

  1. Server-Hardware für Microsoft HCI-Cluster
  2. Installation des S2D-Clusters
  3. Ausfallsichere HCI-Plattform

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Thomas Krenn AG

Weitere Artikel zu Thomas-Krenn.AG

Weitere Artikel zu Microsoft Deutschland GmbH

Weitere Artikel zu Microsoft Deutschland GmbH

Weitere Artikel zu Microsoft GmbH

Weitere Artikel zu Server

Weitere Artikel zu Server, Datacenter

Weitere Artikel zu Server

Matchmaker+