Die "LSI Syncro"-Controller von Avago verwandeln ein per SAS direkt an zwei Server angeschlossenes Speichersystem in eine Hochverfügbarkeitslösung. Im LANline-Test musste das Syncro-System seine Praxistauglichkeit unter Beweis stellen.
Der 2014 von Avago übernommene Storage- und RAID-Controller-Spezialist LSI hat mit Syncro eine Lösung entwickelt, mit der sich kostengünstige DAS-Arrays (Direct Attached Storage) als gemeinsam genutzter Speicher für hochverfügbare Cluster einsetzen lassen. Das auf Halbleiter spezialisierte Unternehmen Avago hat durch die Übernahme von LSI sein Produktportfolio auf den Storage-Markt ausgeweitet.
LSI Syncro bietet kleineren Unternehmen die Möglichkeit, einen hochverfügbaren Windows- oder Linux-Cluster zu implementieren, ohne dafür ein iSCSI- oder FC-SAN bereitstellen zu müssen, was mit relativ hohen Kosten verbunden wäre. Allerdings können die von Microsoft mit Windows Server 2012 eingeführten "Storage Spaces" und "Storage Pools" ebenfalls Direct Attached Storage für hochverfügbare Cluster nutzen, wobei es sich jedoch um eine in Software implementierte Lösung handelt. LSI Syncro steht zudem in Konkurrenz zu Virtual-SAN-Lösungen, die lokale Festplatten von Hypervisor Hosts per Virtualisierung in Shared Storage für hochverfügbare Cluster umwandeln.
Standard oder "Cluster in a Box"
Die Channel-Partner von Avago bieten LSI Syncro in zwei Varianten an. Zum einen lassen sich zwei Standard-Server mit den Syncro-Controllern bestücken und per SAS-Verkabelung mit einem JBOD-Speichersystem (Just a Bunch of Disks) verbinden. Zum anderen ist ein Cluster-in-a-Box-System erhältlich, das zwei Intel-Server und das JBOD-Array in einem einzigen Gehäuse auf zwei Höheneinheiten unterbringt. Ein Syncro-System kann mit kaskadierten SAS-Disk-Arrays derzeit bis zu 96 Festplatten unterstützen.
Das Speichersystem muss auf jeden Fall zwei "Expandable Service Modules" (ESMs) mit jeweils zwei SAS-Expander-Chips/-Ports bieten. Über diese externen SAS-Ports werden die mit ebenfalls je zwei SAS-Ports ausgestatteten LSI-Syncro-Controller über Kreuz mit den SAS-Modulen verbunden, um die Festplatten anzusteuern. Die Syncro-Karten überwachen ihre gegenseitige Verfügbarkeit mit einem Heartbeat, der über die SAS-Verbindung läuft. Diese Architektur stellt sicher, dass sowohl beim Ausfall eines Syncro-Controllers als auch beim Ausfall eines SAS-Expanders der Zugriff auf die Daten über die zweite noch aktive Komponente möglich ist. Bei einem Cluster-in-a-Box-System befinden sich die Expander-Module auf der SAS-Backplane, in die sich die Festplatten direkt einstecken lassen. Einige Hersteller bieten ihre JBOD-Arrays auch mit Hot-Swap-fähigen Expander-Modulen an.
Mehrere Konfigurationen möglich
Die an die Syncro-Controller angeschlossenen SAS-Festplatten sind auf unterschiedliche Weise nutzbar. So kann der Administrator virtuelle Disks einrichten, die ausschließlich auf denjenigen Server gemappt sind, auf dem sie erstellt wurden. Diese Konfiguration ermöglicht es zum Beispiel, das Boot Volume eines Servers auf dem DAS-Array einzurichten.
Für kritische Anwendungen, die nicht in einem Cluster laufen, bieten sich virtuelle Disks an, die prinzipiell von beiden Servern bedienbar sind - wobei ein Server als primärer Besitzer definiert ist. Fällt der primäre Server aus, übernimmt der verbleibende Syncro-Controller die Disks. Die "Ownership" für eine Disk wird auf der Hardwareebene über "SCSI-3 Persistent Reservations" ausgehandelt.
LSI Syncro lässt sich zudem als Shared Storage für Microsoft- und Linux-Cluster (Red Hat, Suse, Centos) einsetzen. Microsoft Hyper-V unterstützt die LSI-Lösung bereits ebenfalls, der VMware-Support soll Mitte 2015 hinzukommen.
Um die Konsistenz der im Cache gespeicherten Daten sicherzustellen, spiegeln die zwei Controller den Cache. Jede Schreibanforderung wird zunächst in den Cache des primären Controllers geschrieben und von dort auf den Cache des sekundären Controllers gespiegelt. Sobald verifiziert ist, dass die Daten in beiden Cache-Speichern identisch sind, erfolgt das Acknowledgment an den Client. Physisch besteht der Cache aus einem Flash-Modul, dessen Stromversorgung über einen sogenannten Superkondensator gepuffert ist. Dieser stellt bei einem Stromausfall die Stromversorgung des Cache-Moduls so lange sicher, bis alle Daten weggeschrieben sind.
Die LSI-Syncro-Controller unterstützen zudem die Funktion "Cachecade", die sich im Zusammenspiel mit SSD-Laufwerken nutzen lässt. Cachecade erkennt häufig angeforderte Datenblöcke und verlagert diese automatisch auf den schnelleren SSD-Tier. Die Syncro-Karten beherrschen bislang nur Version 1.0 für ein Read-Only Caching, das sich zum Beispiel für Virtual-Desktop-Umgebungen gut eignet. Die für andere LSI-Controller-Modelle bereits erhältliche Version Cachecade 2.0 unterstützt auch ein Write Caching.
Installation und Konfiguration
Für den Test der LSI-Syncro-Lösung stellte Avago ein Controller Kit mit zwei 9286-8e-Karten (8x-PCIe) und Kondensator-Batteriemodulen zur Verfügung sowie ein JBOD-SAS-Speichersystem des Anbieters Thomas Krenn. Das Disk Array war mit neun 900-GByte-SAS-Festplatten und zwei 6-GBit/s-SAS-Expander-Modulen ausgerüstet. Die Syncro-Karten sollen in Kürze auch 12-GBit/s-SAS unterstützen.
Um die Hochverfügbarkeitsfunktionen zu testen, bauten wir die Syncro-Controller in zwei "Dell Poweredge T610"-Server ein, auf denen Windows Server 2012 R2 mit einem Hyper-V-Cluster lief. Sowohl die Server als auch das Disk Array und die darin verbauten Festplatten müssen auf der "Hardware Compatibility List" von LSI für den Einsatz mit den Syncro-Controllern freigegeben sein.
Für den Einbau des Superkondensators enthält das Syncro-Kit eine Bodenplatte und Schrauben, mit denen sich die Batteriemodule an der Gehäusewand befestigen lassen. Im Lieferumfang ist zudem ein Verlängerungskabel enthalten, um den Kondensator auch an weiter entfernten Stellen im Server-Gehäuse anbringen zu können.
Nachdem wir die Syncro-Controller und die Kondensatoren in den zwei Test-Servern eingebaut hatten, starteten wir die Windows-2012-R2-Server und aktualisierten die Firmware sowie die Treiber der Syncro-Karten, die wir zuvor von der LSI-Website heruntergeladen hatten. Dann fuhren wir die zwei Server wieder herunter und verkabelten sie mit den beiden externen SAS-Expandern des JBOD-Speichersystems. Jeder Server wird - wie erwähnt - über Kreuz mit den zwei SAS-Expandern verbunden: SAS-Port 1 von Server 1 ist mit dem primären SAS-Port von Expander 1 zu verbinden, SAS-Port 2 mit dem sekundären SAS-Port von Expander 2. Die Anbindung von Server 2 erfolgt spiegelbildlich. Jeder Expander des für den Test bereitgestellten JBOD-Systems verfügte zudem über einen dritten SAS-Port, an den sich ein weiteres JBOD-Array anschließen lässt.
Verwaltung der Speicherressourcen
Nach Abschluss dieser Vorarbeiten fuhren wir zunächst das Disk Array hoch und starteten dann die zwei Windows-Server. Beim Boot-Vorgang zeigten die Server alle über den Syncro-Controller angebundenen Festplatten des JBOD-Arrays an. Der Administrator kann dabei mit der Tastenkombination
Diese Konfigurationsmöglichkeiten stehen aber auch über die Software "Megaraid Storage Manager" (MSM) zur Verfügung. Wir installierten dazu alle MSM-Komponenten auf einer Workstation, von der aus wir anschließend die Syncro-Controller beider Windows-Server konfigurieren konnten.
Wenn MSM mit der Option "Local" installiert ist, verwaltet das Tool nur den in diesem Server vorhandenen Syncro-Controller. Hat der Administrator beim Setup die Multi-Server-Variante gewählt, kann er sich beim Start der MSM-Konsole mit einem der beiden Syncro-Server verbinden. Letzterer wird automatisch zum bevorzugten Besitzer für die anschließend erstellten Speicherressourcen.
Für den LANline-Test richteten wir in der MSM-Konsole auf dem ersten Server mit vier Festplatten eine RAID-5-Disk-Group ein und ordneten diese ein virtuelles Laufwerk zu, das wir für Shared Access konfigurierten. Die nächsten vier Festplatten fügten wir einem RAID-1-Verbund hinzu und erstellten ein virtuelles Laufwerk mit einem exklusiven Zugriff für einen einzigen Server.
Die letzte noch nicht zugewiesene Festplatte richteten wir per rechter Maustaste als "Global Hot Spare" ein. Damit diente sie als Hot-Standby-Laufwerk für alle virtuellen Laufwerke des Clusters. Der Administrator kann Hot-Spare-Laufwerke auch einer einzelnen Virtual Disk fest zuordnen.
Test der Failover-Funktionen
Nachdem wir die vorhandenen Speicherressourcen in der MSM-Konsole konfiguriert hatten, fügten wir sie auf den beiden Windows-Test-Servern im Disk-Manager hinzu. Das mit Shared Access eingerichtete RAID-5-Volume erkannten beide Windows-Server. Der Disk-Manager zeigte dabei zwei Partitionen mit 2.048 GByte beziehungsweise 466 GByte an, weil wir die Disk im MBR-Format (Master Boot Record) eingerichtet hatten, das pro Partition maximal 2 TByte unterstützt. Mit dem neuen GPT-Format (Global Partitioning Table) lassen sich sehr viel größere Partitionen erstellen. Die für den exklusiven Zugriff konfigurierte RAID-1-Disk war nur auf demjenigen Server zu sehen, auf dem wir sie erstellt hatten.
Damit sich ein von einem Syncro-Controller bereitgestelltes Shared Access Volume zu einem Windows-Cluster hinzufügen lässt, muss der Administrator auf den Cluster-Nodes einen Registry Key anpassen. Standardmäßig akzeptiert ein Windows-Cluster keine Volumes, die über einen RAID-Controller gemappt sind. Nachdem wir die Registry entsprechend modifiziert hatten, konnten wir das für Shared Access konfigurierte RAID-5-Volume zu unserem Hyper-V-Cluster hinzufügen und erfolgreich online nehmen. Anschließend installierten wir auf diesem Laufwerk einen virtuellen Windows-2012-R2-Server. Um die Failover-Funktionen von Syncro zu testen, schalteten wir den primären Hyper-V-Server hart aus, indem wir die Stromverbindung unterbrachen. Der zweite Server hat den virtuellen Server sofort neu gestartet, sodass er nach kurzer Zeit wieder zur Verfügung stand.
Fazit
Für kleinere Unternehmen, die für ihre Anwendungen eine hohe Verfügbarkeit benötigen, aber nicht über die finanziellen Mittel für eine Clusterlösung mit einem dedizierten Speichernetz verfügen, bietet die LSI-Syncro-Lösung von Avago eine kostengünstige Alternative. Diese benötigt lediglich zwei Standard-Server mit Syncro-Karten und ein DAS-System mit zwei SAS-Expander-Modulen.
Der Listenpreis für das Syncro-Kit mit zwei Controllern und Kondensatorbatterien liegt bei etwa 5.000 Euro. Ein SAS-JBOD-System mit zwei ESMs und 10 TByte Speicherkapazität liegt auf einem ähnlichen Preisniveau. Für rund 10.000 Euro Hardwarekosten lässt sich so mit LSI Syncro eine hochverfügbare Windows- oder Linux-Clusterlösung bereitstellen, ohne dafür ein kostspieliges SAN implementieren zu müssen.
Der Autor auf LANline.de: chjlange
Info: Avago LSITel.: 089/4135200Web: www.lsi.com/products/shared-das