iSCSI-NAS-Systeme

Starke Speicherboliden

26. September 2007, 12:46 Uhr |

Mittels iSCSI angeschlossene NAS-Systeme galten bislang als die Lowend-Alternative zu SAN-Lösungen. In den Real-World Labs von Network Computing konnten sieben iSCSI-Disk-Arrays beweisen, was in ihnen steckt.

Während sich Fibre-Channel-basierte Stroage-Area-Networks (SAN) für Enterprise-Data-Center in den letzten paar Jahren von der innovativen Spitzentechnologie zur Standardtechnologie reduziert haben, hielten kleinere Organisationen an Direct-Attached-Storage- oder Network-Attached-Storage-Appliances, kurz DAS und NAS, fest. Die Vorteile eines SANs, darunter gemeinsame Storage-Pools, gemeinsame Logical-Unit-Number-Disks (LUNs) zwischen Servern für das Clustering, dynamische Arrays und logische Laufwerkserweiterungen, werden kaum in Frage gestellt. Aber angesichts der für die Implementierung einer Fibre-Channel-Infrastruktur notwendigen Menge von Zeit, Geld und Wissen verblassen diese Vorteile für kleine Unternehmen schnell.

Nun ist mit dem Internet-SCSI-Protokoll, kurz iSCSI, eine neue Technologie auf den Storage-Markt gekommen. So wie Fibre-Channel das SCSI-Kommando-Set im FC-Protokoll einkapselt, um gemeinsame Remote-Storage-Ressourcen zu ermöglichen, kapselt iSCSI SCSI ins gute alte TCP/IP ein. Durch diese Technik sind keine 1000 Euro teuren Host-Bus-Adapter und Fibre-Channel-Switches für 700 Euro pro Port mehr erforderlich, nur um Exchange-Server clustern zu können.

Report-Card: iSCSI-NAS-Systeme

Features: iSCSI-NAS-Systeme

Storage-Verantwortliche könnten mittels dieser Technologie fast jede beliebige Netzwerkinfrastruktur nutzen, um ein SAN zu bauen, aber am besten greifen sie zu Gigabit-Ethernet. Natürlich, Fibre-Channel läuft heute mit 2 GBit/s und 4-GBit/s- sowie 10-GBit/s-Lösungen sind bald zu erwarten – iSCSI über Gigabit-Ethernet wird also niemanden nur durch seine Performance für sich gewinnen, kann aber in Sachen Performance durchaus mithalten und ist im Preis-Leistungsverhältnis durchaus interessant. Und noch attraktiver wird iSCSI, sobald 10-GBit/s-Ethernet erschwinglich wird.

Ein iSCSI-SAN zu bauen, kann so einfach sein, wie einen Gigabit-Ethernet-Switch zu kaufen, einen Gigabit-Ethernet-Port mit den Servern zu verbinden und iSCSI-Initiator-Software auf die Server zu laden. Die meisten modernen Server werden gleich mit zwei Gigabit-Ethernet-Ports ausgeliefert. Mit managebaren Gigabit-Switches für rund 65 Euro pro Port ist ein iSCSI-SAN erschwinglicher, als viele vielleicht glauben. Ein Switch mit Jumbo-Frame-Support wird helfen, die beste Performance aus der iSCSI-Lösung herauszukitzeln, aber dies wird natürlich etwas mehr kosten.

Die Einsparungen sind sogar noch größer, wenn Disaster-Recovery durch Verbinden des Speichers mehrerer Standorte geplant ist. iSCSI-Verkehr kann über WAN-Verbindungen gesendet werden, indem man den Verkehr einfach nur routet. Fibre-Channel-Verkehr über eine WAN-Verbindung zu schicken, würde indes Fibre-Channel-zu-IP-Router oder -Switches erfordern, was die Sache extrem teuer macht.

Da iSCSI Standard-Gigabit-Ethernet nutzt, sollte eine Zugriffssteuerung implementiert werden, damit nur autorisierte Server auf ein logisches iSCSI-Laufwerk zugreifen können. Typischerweise limitieren iSCSI-Geräte den Zugriff auf logische Laufwerke über IP-Adressen, iSCSI-Qualified-Names (IQNs) und/oder CHAP (Challenge/Response-Handshake-Protocol).

Ohne Speicher ist ein SAN natürlich nichts, weshalb der Speicheradministrator schon ein, zwei oder drei Disk-Arrays anschließen sollte. Die meisten Hersteller nutzen heute für iSCSI-Arrays SATA-Laufwerke, die hohe Kapazitäten zu geringen Kosten bieten. Bevor Administratoren SATA als Server-Storage ablehnen, sollten sie sich einmal ansehen, wie sich die Plattenlaufwerksindustrie in den letzten paar Jahren verändert hat.

iSCSI-Arrays

Beim Eintritt ins neue Millennium hat sich der Plattenlaufwerksmarkt in SCSI- und Fibre-Channel-Serverlaufwerke hoher Performance und Verfügbarkeit und in Low-Cost-Desktoplaufwerke geteilt. Während der letzten paar Jahre hat sich der Markt sogar noch weiter unterteilt in ATA- und SATA-Laufwerke mit geringen Noise-Leveln – besonders für Consumer-Elektronikapplikationen wie Tivos – und hoch zuverlässige Laufwerke, die die gleiche Mean-Time-between-Failure (MFBF) besitzen, wie SCSI und Fibre-Channel-Laufwerke. Nun weisen auch SATA-Laufwerke Features wie Hot-Swapp-Fähigkeit und natives Kommando-Queuing auf, die lange Zeit SCSI und Fibre-Channel vorbehalten waren.

Wir forderten iSCSI-Disk-Arrays an und erhielten Produkte, die die volle Bandbreite von Funktionalitäten aufweisen. In unseren Real-World Labs standen Adaptecs iSA1500-Storage-Array, Equallogics PS100E-Storage-Array, Falconstors iSCSI-Storage-Server, Intransas IP5500, Overland Storages REO-4000, Promise Technologys Vtrak-15200 und der Snap-Server-18000 von Snap Appliance/Adaptec. Lefthand Networks und Stonefly lehnten eine Testteilnahme ab, während Network Appliance und SANrad in unserem Zeitrahmen kein Equipment zur Verfügung stellen konnten.

Die Produkte im Testfeld fallen in drei Gruppen. Am oberen Ende bieten das Intransa-5500-Array und das Equallogic-PS100E-Storage-Array Raum für Wachstum, indem sie eine Gruppe von Disk-Cabinets als einzelne Storage-Ressource behandeln. Wem bei diesen Systemen der Speicherplatz knapp wird, der fügt einfach ein weiteres Disk-Cabinet hinzu. Die Laufwerke in diesem Cabinet werden automatisch der Gruppe hinzugefügt. Es geht aber noch besser: Wer Drive-Cabinets und/oder Intransa-Controller einbaut, fügt auch Gigabit-Ethernet-Verbindungen zur virtuellen IP-Adresse der Gruppe hinzu. Diese Systeme lassen sich auf bis zu 50 TByte und mehr aufrüsten. – Während gleichzeitig die Performance steigt.

So wie iSCSI-SANs primäre Storagetasks, beispielsweise die Unterstützung von Server-Clustern und kritischer Messaging- und Datenbankserver, übernehmen, gewinnen iSCSI-Arrays Unterstützung für Enterprise-Array-Features, darunter Snapshots und Replikation. Snapshots erlauben dem Anwender, den aktuellen Stand einer Platte zu einem bestimmten Zeitpunkt zur Referenz oder für Backups zu speichern und später wieder zu mounten. Alle Systeme, die Snapshots unterstützen, nutzen ähnliche Copy-on-Write-Technologie, die den aktuellen Inhalt eines Disk-Blocks ins Snapshot-Gebiet kopiert, wenn der Inhalt des Blocks sich ändert.

Manuelle oder zeitlich gesteuerte Snapshots sind als Teil der Datensicherheit nützlich, aber sie geben möglicherweise nicht immer gültige Daten wieder, weil sie sich nicht mit den Serverapplikationen koordinieren, um zu gewährleisten, dass die Daten zum Zeitpunkt der Snapshot-Erzeugung konsistent sind. Man ist besser mit einem System bedient, das Microsofts Volume-Shadow-Copy-Service (VSS) oder andere Agenten nutzt, um eine Applikation anzuweisen, ihre Puffer und Warteschlangen zu leeren, damit ein Snapshot erstellt werden kann. Falconstor und Intransa liefern VSS-Provider, während Adaptec und Equallogic versprechen, sie bald verfügbar zu haben.

Die Produkte am unteren Ende bieten

Basis-iSCSI-Disk-Funktionalität. Promise-Vtrak-15200 führt keine LUN-Maskierung durch, macht dies aber durch viel Speicher fürs Geld wett. Wo sonst erhält man mehr als 3 TByte vernetzten RAID-5-Speicher für weniger als 10000 Dollar? Adaptecs iSA 1500 unterstützt LUN-Maskierung, Disk-Virtualisierung und selbst Snapshots, aber seine 1-TByte-Kapazität und fehlende Erweiterungsfähigkeit lassen das Produkt in die Basisklasse zurückfallen.

Die dritte und interessanteste Gruppe enthält Geräte, die iSCSI-Disk-Targets mit anderer Funktionalität kombinieren. Overland-Reo ist primär eine Backup-Appliance, die ein Bandlaufwerk emuliert, aber auch als Disk-Array arbeitet. Der Snap-Server-18000 und Falconstors-iSCSI-Server, ausgeführt auf einen Dynamic-Network-Factory-IPBank-E-1600, sind NAS-Boxen mit eingebauter iSCSI—Funktionalität.

Falconstor-Software-iSCSI-Storage-Server

Falconstor hat clever erkannt, dass es einen Bedarf an iSCSI-Disk-Systemen für Windows-Shops gibt. Also hat die Firma ihre iSCSI-Storage-Server-Software für Windows-Storage-Server, die NAS-Version von Windows-Server-2003, geschrieben.

Als wir Falconstor mitteilten, dass wir Disk-Arrays testen werden, schickte die Firma eine 3HE-IPBank-E-1600-Appliance mit vorinstalliertem Windows-Storage-Server und iSCSI-Storage-Server in unsere Real-World Labs. Wir erwarteten, eine Lösung wie den Snap-Server-18000 vorzufinden, die iSCSI-Funktionalität ohne bestechende Features und beeindruckende Performance bietet. Was wir aber erhielten, war das beeindruckendste Produkt des Testfeldes mit Highend-Performance und Enterprise-Features zu einem günstigen Preis.

Der iSCSI-Storage-Server fügt der Windows-Storage-Server-Webschittstelle eine iSCSI-Registerkarte hinzu. Wir konfigurierten den Server also über eine grafische Benutzerschnittstelle, und zwar ohne einen einzigen Blick in die Dokumentation werfen zu müssen. Dynamic-Network-Factory hat die Disk-Laufwerke als ein RAID-5-Set vorkonfiguriert, so dass unser nächster Schritt die Erzeugung einer Reihe von LUNs war. Anders als der Snap-Server-18000, der eine iSCSI-LUN als Datei innerhalb des Dateisystems erstellt, erzeugt der iSCSI-Server LUNs vom rohen Plattenplatz, was den Overhead im Prozess reduziert.

Wenn es um Datenschutz-Features geht, besitzt der iSCSI-Storage-Server so ziemlich jedes Feature, das man sich vorstellen kann – obwohl einige davon erfordern, optionale Feature-Lizenzen zu kaufen. Der Anwender kann Snapshots manuell, zeitlich geplant oder durch Backup-Applikationen und Microsofts VSS ausgelöst erzeugen. Falconstor hat sogar Snapshot-Agenten für SQL-Server und Exchange, womit Anwender koordinierte Snapshots dieser Datenbanken auch ohne VSS erzeugen können.

Da der iSCSI-Server erkennt, dass Applikationen wie Exchange- oder SQL-Server ihre Datenbank auf einem Volume und die dazu gehörenden Logdateien auf einem anderen Volume speichern, kann er LUNs gruppieren und damit erreichen, dass die Snapshots der gesamten Gruppe synchronisiert sind. Der iSCSI-Server verwaltet den Snapshot-Platz dynamisch, während andere Lösungen vom Administrator verlangen, die Menge des Snapshot-Platzes bei der Erzeugung einer LUN zu spezifizieren. Den grundlegenden RAID-Schutz ergänzend, kann der iSCSI-Storage-Server LUN-Mirrors in separaten RAID-Arrays erzeugen, um die Daten gegen RAID-Controller-Fehler zu schützen. Wem das noch nicht reicht, der kauft eben die Cluster-Option und lässt ein Paar von iSCSI-Storage-Servern laufen.

Sobald der Administrator die entsprechende Feature-Lizenz erworben hat, kann er dem iSCSI-Storage-Server sagen, dass er für die Disaster-Recovery Daten von einem iSCSI-Server auf einen anderen replizieren soll. Hier müssen wir klarstellen, dass es sich dabei nicht um Echtzeit-Replikation handelt, wie man sie mit EMCs Symmetrix-Remote-Data-Facility (SRDF) erhält. Der iSCSI-Storage-Server erlaubt dem Administrator aber, regelmäßige Replikationen zu planen, beispielsweise stündlich. Zur vorgegebenen Zeit erzeugt der iSCSI-Server einen Snapshot, repliziert ihn auf die Ziele und aktualisiert dort die Replik.

Falls die 4 TByte an SATA-Platten nicht ausreichen: Dynamic Network Factory hat gerade ein 7HE-Monster angekündigt, das mit 42 SATA-Laufwerksschächten auf den Markt kommt. Mit 400-GByte-Platten bestückt ergibt das eine Gesamtkapazität von 16 TByte. Da Falconstor ihre Softwareprodukte über mehrere OEMs vertreibt, erwarten wir bald eine erweiterbare NAS-Appliance mit iSCSI-Server. Insgesamt überzeugte uns die Falconstor-Lösung, auf Grund der Testergebnisse erhielt der iSCSI-Storage-Server die Auszeichnung Referenz von Network Computing.

Equallogic-PS100E-Storage-Array

Das ausgepackte Equallogic-PS100E-Storage-Array sah aus, wie wir es erwartet hatten: ein zu benutzendes iSCSI-Disk-Array. Mit vielen Platten hoher Kapazität in einem 3HE-Gehäuse und ein paar Gigabit-Ethernet-Ports auf der Rückseite glich das System sehr dem Promise-Vtrak. Als wir aber sahen, welche Funktionalität das 100E-Arry bietet, änderten wir unseren ersten Eindruck. Mit Ausnahme der Verwendung von SATA-Laufwerken gleicht das Peerstorage-Array eher einem SMC- oder Hitachi-Array mit Snapshots, Replikation und redundantem Alles. Jedes Peerstorage-Cabinet besitzt redundante Controller mit drei Gigabit-Ethernet-Verbindungen.

Aber der wirkliche Spaß beginnt, wenn der Administrator seinem iSCSI-SAN ein zweites Cabinet hinzufügt. Es lässt sich eine einzelne Gruppe mit bis zu 32 Peerstorage-Arrays formen. Wie ein Intransa-Bereich, nur ohne all die Backend-Gigabit-Ethernet-Kabel, ist eine Gruppe ein virtuelles RAID-Array, das Ressourcen wie freien Speicherplatz und Hot-Spare-Laufwerke zur Verfügung stellt. Die Performance wächst mit dem Speicherplatz, weil ein zusätzliches Array drei weitere lastausgleichende Gigabit-Ethernet-Ports bedeutet.

Wir haben ein Laptop angeschlossen und das textbasierte Setup-Script ausgeführt. Das Script fragte nach den IP-Adressen für dieses Cabinet und einer virtuellen IP-Adresse für die Gruppe. Dann starteten wir einen Browser und begannen, Volumes zu erzeugen. Bei der Erzeugung eines Volumes sind der für Snapshots zu reservierende Speicherplatz und die Server, auf die der Zugriff beschränkt werden soll, einzugeben. Neben den üblichen IQN- und CHAP-Restriktionen war es sogar einfacher, den Volume-Zugriff lediglich über die IP-Adresse zu limitieren.

Das Peerstorage-Array erzeugt Snapshots auf Befehl in der grafischen Benutzerschnittstelle oder zeitgesteuert. Es kann Snapshots sogar automatisch verfügbar machen, indem es am Ende des IQNs des Volumes einen Zeitstempel einfügt, um den IQN des Snapshots zu erzeugen. Der Administrator kann außerdem Mirrors oder Klone erzeugen, die Intransa-Repliken ähneln.

Richtig interessant wurde es, als wir das dritte Peerstorage-Array auspackten und als zweite Gruppe einrichteten. Wir konfigurierten die zwei Gruppen als Replikationspartner und begannen, Volumes von einer Gruppe auf die andere zu replizieren. Wie Falconstors iSCSI-Server fertigt auch das Peerstorage-Array Snapshots des Quell-Volumes an und repliziert sie wie geplant auf das Ziel-Volume. Die einzige Sache, über die wir uns wirklich beschweren können, ist, dass die Auswahl eines RAID-Levels – 1+0 für Performance oder 5+0 für Speicherplatz – die gesamte Gruppe betrifft. Einen 30 TByte großen Free-Space-Pool zu haben, ist manchmal ja ganz nett, aber wir hätten lieber einen schnellen und etwas weniger teuren Pool.

Intransa-IP5500

Intransas IP5500 zeigte eine überraschende Architektur. Statt als eine 3HE-Box voller Platten mit Gigabit-Ethernet auf der Rückseite kam IP5500 in drei Kisten. Insgesamt bestand das Testsystem aus einem 3HE-Disk-Cabinet mit 16 250-GByte-SATA-Platten und vier Disk-Controllern (einer für jede Reihe von vier Laufwerken) sowie einem übereinstimmenden Paar von 1HE-Servern, die als redundante iSCSI-Controller arbeiten. Diese Controller-1HE-Server kommunizieren ebenfalls über iSCSI mit den Disk-Cabinets, was acht Ports für jedes Disk-Cabinet, ein gemeinsames Paar für jeden Disk-Controller und zwei Ports pro Controller erfordert. Das sind dann insgesamt zwölf Ports, die noch zu den vier Ports (zwei für jeden Controller) hinzukommen, die das IP5500 mit dem iSCSI-SAN und Management-Netzwerk verbinden.

Innerhalb eines Bereichs (oder Realm) – so bezeichnet Intransa ein Set miteinander verbundener Disk-Cabinets und Controller – wird die Last automatisch über all die Controller verteilt. Fällt ein Controller aus, werden dessen Verbindungen zu den Servern von einem anderen Controller übernommen. Das bedeutet Controler-Fehlertoleranz. Ein Realm umfasst bis zu acht Controller und zwölf Disk-Cabinets, was insgesamt 48 TByte ergibt.

Da Intransa die Installation im Preis des IP5500 mit drin hat, ließen wir uns vom Anbieter für die Installation in unseren Real-World Labs einen Feldingenieur schicken. Wir erzeugten auf unserem Extreme-Summit7i-Switch ein VLAN für die interne Kommunikation und innerhalb weniger Minuten hatte der Ingenieur das System am Laufen.

Wir installierten dann die Storcontrol-Windows-Management-Applikation auf unserem Management-PC und begannen, den Realm zu konfigurieren. Statt eines einzelnen großen RAID-Sets mit Unterteilung in logische Laufwerke zu konfigurieren, erzeugten wir LUNs, die Intransa Volumes nennt, und ließen das System basierend auf unserer Richtlinie und unserem Fit-Speicherplatz für den Realm zuteilen. Alle Volumes nutzen eine Form von RAID 1 oder 10. Richtlinien entscheiden, wie viele physikalische Laufwerke und Daten darüber zu verteilen sind – wir wählten die Speed-Richtlinie, um über acht Spindeln zu verteilen. Fits bestimmen, wie viele physikalische Laufwerke mit anderen Volumes gemeinsam zu verwenden sind – wir selektierten »New«, womit jedes Volume auf sein eigenes Laufwerks-Set platziert wird. Beim Zuweisen von Volumes an Initiatoren wurden wir angenehmen davon überrascht, dass das IP5500 alle Initiatoren verfolgt, die versuchten, sich zu verbinden. Das bedeutet, dass der Administrator nicht all diese IQNs einzutippen braucht.

Das IP5500 unterstützt mehrfach facettierte Mirrors und Snapshots. Pro Volume lassen sich bis zu drei Mirrors erzeugen. Nachdem sie synchronisiert sind, lassen sich Mirrors jederzeit wieder brechen. Snapshots erzeugt der Administrator entweder über die grafische Benutzerschnittstelle oder die Befehlszeile. Intransa hat einen VSS-Provider für die programmatische Erzeugung von Snapshots von Windows-2003-Servern. Sobald Snapshots erzeugt sind, lassen sie sich Initiatoren zuweisen. Das IP5500 war das einzige Produkt im Test, das in seiner grafischen Benutzerschnittstelle umfangreiche Ereignisprotokollierung sowie grafische Performance- und Durchsatzanzeigen bietet.

Das IP5500 ist ein kraftvolles System mit massiver Erweiterbarkeit, aber es kostet auch einiges. Ein Einstiegspreis von 60000 Dollar für ein System, das SATA-Laufwerke nutzt und ein zusätzliches Gigabit-Ethernet-Netzwerk erfordert, um die Komponenten verbinden zu können, ist wenig beeindruckend.

Snap-Server-18000

Lange ein Führer im Markt kleiner und mittelgroßer NAS-Lösungen, steigt die nun zu Adaptec gehörende Snap Alliance jetzt mit ihrer ersten Dual-Prozessor-Appliance, der 3HE-2-TByte-Snap-Server-18000, langsam auf. Die letzte Version von Snaps Linux-basiertem Guardian-OS, das auf Snap-Servern ab dem 4500 läuft, enthält iSCSI-Unterstützung. Unser Snap-Server-18000 ist also nicht nur eine NAS-Appliance, sondern auch ein iSCSI-Disk-System.

Wem die 1,5 TByte RAID-5-Kapazität des Snap-Server-18000 zu klein wird, der kann bis zu sieben Snap-Disk-30-Erweiterungs-Cabinets über die Fibre-Channel-Schnittstelle des Snap-Server-18000 verbinden. Jede Snap-Disk-30 enthält bis zu 16 250-GByte-Laufwerke, was dem Snap-Server-18000 bis zu 30 TByte roher Speicherkapazität bietet.

Den Snap-Server-18000 zu installieren, reichte aus. Wir verbanden seine beiden Gigabit-Ethernet-Ports mit unserem iSCSI-SAN und nutzten dann auf einer Maschine, die sich im selben Subnetz befand wie der Snap-Server, den Snap-Server-Manager dazu, den lastausgleichenden Ethernet-Ports eine IP-Adresse zuzuweisen. Das weitere Management des Snap-Servers erledigten wir anschließend mit Hilfe seines internen Web-Servers. Zu beachten ist, dass sämtliches Management In-Band-Management ist. Wer also plant, iSCSI-HBAs zu nutzen, die nicht ebenfalls IP-Zugriff auf das Netzwerk bieten, der muss vielleicht eine Managementstation mit Zugriff auf das iSCSI-Netz einrichten.

Jedes iSCSI-Disk-Target auf dem Snap-Server ist als Datei auf einem seiner Linux-Volumes gespeichert. Wir erzeugten ein RAID-Set von allen acht 250-GByte-Laufwerken, ein Volume auf diesem RAID-Set und dann vier 100-GByte-iSCSI-Disks für Performance-Tests. Der Snap-Server unterstützt keine LUN-Maskierung durch IQN oder IP-Adresse, aber der Administrator kann unabhängige lokale Benutzer-IDs und Passwörter für jede iSCSI-Platte einrichten und CHAP für die Authentifizierung nutzen.

Obwohl Snaps Guardian-OS Volume-Snapshots und -Replikationen unterstützt, stehen diese Features nicht für iSCSI-Volumes zur Verfügung. Wer einen Snap-Server primär für iSCSI-Storage einsetzt, der sollte die Menge der für Snapshots reservierten Platten reduzieren.

Datei- und Blockspeicher in einem einzelnen, hoch performanten System zu integrieren, das sich bis auf 30 TByte Kapazität ausbauen lässt, ist sehr interessant. Vielen Organisationen wäre durch die Konsolidierung all ihres Speichers auf einem Snap-Server gut gedient. Die Benutzer greifen auf ihre gemeinsamen Dateisysteme zu und Exchange- und SQL-Server nutzen iSCSI für den Zugriff auf ihre Daten.

Adaptec-iSA1500-Storage-Array

Adaptecs iSA1500 war mit 1HE und 1 TByte roher Plattenkapazität das kleinste Produkt im Test. Das iSA1500-Storage-Array könnte eine gute Wahl für Unternehmen sein, die ein paar Server clustern wollen. Trotz seiner geringen Größe bietet das Produkt einige erweiterte Features, darunter Snapshots, und Adaptec hat versprochen, in zukünftige Firmware-Releases sowohl einen VSS-Provider als auch Replikation zu integrieren.

Wir verbanden das iSA1500 mit unserem KVM-Switch und nutzten die Befehlszeile, um dem System einen Namen und andere grundlegende Setup-Informationen, beispielsweise eine IP-Adresse, zu geben. Dann verbanden wir den Management- und zwei iSCSI-Daten-Gigabit-Ethernet-Ports mit unserem Netzwerk und installierten Adaptec-Storage-Manager auf unserem Management-PC. Oder besser: Wir versuchten, die Software zu installieren. Adaptec-Storage-Manager besteht aus einem Management-Web-Server, der sich auf Port 8000 des Management-Servers installiert, und einem Client, den man auf seinen Servern installieren kann, um die Nutzung von iSCSI-Ressourcen zu vereinfachen. Als Microsoft ihren iSCSI-Initiator aktualisierte, zerbrach dabei unglücklicherweise Adaptecs Storage-Manager-Client. Ein Download von Adaptecs Web-Site löste das Problem.

Der Client arbeitet mit dem Microsoft-iSCSI-Initiator und Windows zusammen. Man kann also Adaptec-Storage-Manager benutzen, um ein Volume auf einem Server und den LUN auf dem iSA1500 zu erzeugen, um den iSCSI-Initiator zu verbinden und dem IQN dieses Servers den LUN zuzuweisen, um das Laufwerk zu partitionieren und zu formatieren und ihm schließlich einen Laufwerksbuchstaben zuzuweisen. Das bedeutet ein RAID-Set zu erzeugen – oder, wie Adaptec es nennt, einen Storage-Pool –, LUNs von diesem RAID-Set zu erstellen und den LUNs Initiatoren zuzuweisen.

Das iSA1500 war das einzige Produkt im Test, das neben der üblichen CHAP-Authentifizierung auch IPSec-Verschlüsselung unterstützte. Der Programmierer, der die Webschnittstelle geschrieben hat, war wahrscheinlich etwas übereifrig beim Erzwingen des offiziellen Formats für IQNs. Die Webschnittstelle lehnte den Namen eines unserer Server ab, als wir ihn in Großbuchstaben eingeben wollten – und so hatte ihn uns schließlich auch der Microsoft-Initiator gemeldet.

Alles in allem war das iSA1500-Produkt etwas enttäuschend. Es besitzt die meisten der wichtigen Features, aber seine eingeschränkte Performance und Erweiterbarkeit begeisterte nicht. Wir wünschten, Adaptec würde die Features des iSA1500 mit mehr Laufwerksschächten und mehr Performance in eine Box packen.

Promise-Technology-Vtrak-15200

Promise Technology war lange Zeit ein Führer in der Low-Cost-ATA-RAID-Welt und ihr Vtrak-15200 ist ihr größter Schritt in Richtung Netzwerk-Storage. Mit einem 15 SATA-Laufwerke umfassenden Gehäuse und dualen Gigabit-Ethernet-Ports für iSCSI-Zugriff ist das Vtrak-15200 ein solides, aber auch einfaches iSCSI-Array, das eine gute Wahl für kleine Server-Cluster und Disk-to-Disk-Backup-Applikationen sein kann.

Promise verkauft ihr Vtrak-Gehäuse und die Controller über Value-added-Reseller und Systemintegratoren. VARs können die Konfiguration fein abstimmen, beispielsweise unter Verwendung von Western Digital Raptors für einen Datenbankserver oder 400-GByte-Laufwerke für Disk-to-Disk-Backup-Applikationen. Promise besorgte uns Western Digital und bot damit acht 250-GByte-SATA-Caviar-Laufwerke. Administratoren können von einem anderen Promise-Array-Controller oder -Gehäuse aufrüsten und ihre existierenden Laufwerke übertragen und dabei ihre bestehenden RAID-Sets und deren Inhalte beibehalten.

Nach der Installation von Vtrak im Rack und dem Mounten der acht SATA-Laufwerke begannen wir die Konfiguration, indem wir einen PC mit der seriellen Schnittstelle verbanden und die IP-Adresse des Management-Ports durch eine menügeführte Schnittstelle einstellten. Anschließend installierten wir die »WebPAM«-Management-Applikation auf einem Server. Diese Applikation installiert einen Web-Server auf Port 8080 – oder 8443, falls für SSL konfiguriert wurde. Der Web-Server liefert die Java-Applikationen, die für die Administration des Arrays gebraucht werden.

Diese Installation eines Web-Servers auf der Managementstation ist die von uns am wenigsten favorisierte Managementapplikation. Eine Maschine, die für das Management einiger verschiedener Systeme benutzt wird, endet rasch mit vielen gleichzeitig und permanent laufenden Hintergrundprozessen. Wenn ein Hersteller schon eine Web-/Java-Applikation für das Management seiner Appliance bietet, dann wäre es wünschenswert, dass er auch den erforderlichen Web-Server auf der Appliance installiert.

Wir erzeugten logische Laufwerke, indem wir einen RAID-Level, die Blockgröße und die einzuschließenden physikalischen Laufwerke selektierten. Da ein logisches Vtrak-Laufwerk ein vollständiges RAID-Set ist, konnten wir vier LUNs für die Performance-Tests nur erzeugen, indem wir vier RAID-1-Sets erzeugten. Die logischen Laufwerke wiesen wir dann iSCSI-Ports und LUNs zu. Natürlich erwarteten wir durch die Verwendung von RAID-1 einen Performancevorteil für Vtrak, da ja alle anderen Produkte RAID-5 nutzten, aber es stellte sich heraus, dass Vtrak das langsamste System im Test war.

Während die anderen getesteten Produkte ein iSCSI-Target komplett mit IQN für jedes logische Laufwerk präsentieren, zeigt sich der Vtrak-15200 selbst als einzelnes Target mit mehrfachen LUNs auf jedem seiner Gigabit-iSCSI-Ports. Das bedeutet für eine Anmeldung am Vtrak mit den meisten Initiatoren, dass alle diesem Ethernet-Port zugeordneten LUNs dem Server zur Verfügung stehen. Da Vtrak keine LUN-Maskierungsfähigkeiten besitzt, müssen die Administratoren darauf achten, den Servern nur so viele Laufwerke zu geben, wie notwendig.

Sobald die Software von Vtrak fähig ist, LUN-Maskierung durchführen und ein RAID-Set weiter unterteilen zu können – diese Features plant der Hersteller mit kommenden Releases anzubieten –, wird die Lösung den Grad eines voll ausgestatteten SAN-Arrays erreichen. Heute ist es jedoch eine Low-Cost-Lösung für Clustering und andere Applikationen, bei denen nicht mehr als ein paar Server gemeinsam ein Array benutzen.

Overland-Storage-REO-4000

Während die Hersteller der meisten getesteten iSCSI-Disk-Arrays Disk-to-Disk-Backups als eine geeignete Anwendungsmöglichkeit ihrer Produkte promoten, geht Overland Storage mit ihrem REO-4000 einen Schritt weiter, indem sie das Produkt Bandlaufwerke emulieren und als ein iSCSI- oder optional als Fibre-Channel-Array agieren lässt.

Um das REO zu installieren, verbanden wir den Management-Port mit unserem primären Netzwerk und die zwei Gigabit-Datenschnittstellen mit dem iSCSI-SAN. Dann starteten wir einen Browser und begannen mit der Konfiguration des Systems über dessen internen Web-Server.

Das REO-4000 behandelt seine Laufwerke als zwei RAID-Sets, aber der Administrator muss den gesamten 2 TByte großen, rohen Speicherplatz als JBOD-, RAID-0- oder RAID-5-Array konfigurieren. Falls wie in den meisten Fällen Fehlertoleranz gewünscht ist, steht dem Administrator 1,5 TByte nutzbarer Plattenplatz für iSCSI-Disks zur Verfügung.

Nachdem RAID eingerichtet war, klickten wir auf »Add logical Volume«, um iSCSI-Targets zu erzeugen. Die Default-Target-Namen sind keine vollständig qualifizierten iSCSI-Namen, weshalb Administratoren aufpassen müssen, dass sie keine Duplikate erzeugen, falls sie mehr als ein REO im Netzwerk haben. Jedes System, das auf Ressourcen auf dem REO zugreifen wird, muss seinen IQN im REO eingegeben und den logischen Laufwerken, auf die es zugreifen soll, zugeordnet haben.

Obwohl das REO über zwei Gigabit-Ethernet-Ports verfügt, müssen diese mit verschiedenen IP-Adressen konfiguriert sein. Damit lässt sich weder ein automatisches Load-Balancing noch ein Failover einrichten.

Systemkonfigurations-Backups und Software-Updates vereinfacht das REO-4000 durch clevere Nutzung eines USB-Flash-Memory-Keys. Administratoren müssen diesen Key lediglich zu einem PC verschieben, um dessen Inhalt zu sichern oder ein neues Software-Image hinaufzuladen. Wer keinen DHCP-Server hat, kann eine Textdatei auf dem USB-Schlüssel editieren, um die IP-Adressen des Management-Ports einzustellen. Durch seine limitierte Performance und eingeschränkte Erweiterbarkeit ist das REO-4000 am besten für Backup-und-Restore-Applikationen geeignet, für die es schließlich auch entworfen wurde.

Info So testete Network Computing

Wir führten die Open-Source-Iometer-Benchmark (www.iometer.org) aus, um Last zu generieren und die Performance der iSCSI-Arrays zu messen. Jedes Array testeten wir unter Verwendung von vier Servern: einem Dell-1600SC mit Dual-Xeon-2,4-GHz-Prozessoren, 1 GByte Speicher und einem QLogic-4010-iSCSI-Host-Bus-Adapter; zwei Noname-2,4-GHz-P4s einer mit Alacritech-HBAs und der andere mit Microsoft-Windows-2003-Initiator und Low-Cost-Realtek-basierter Gigabit-Ethernet-Karte und einem Compaq-1850-R mit Dual-P3-550-MHz-Xeons und 512 MByte RAM. Die Server und iSCSI-Arrys waren an einen Extreme-Networks-Summit-7i-Gigabit-Ethernet-Switch angeschlossen.

Wo möglich, konfigurierten wir die Arrays mit einem einzelnen RAID-5-Set, das wir weiter in vier iSCSI-Target-Disks unterteilten. Das Intransa-Array unterstützt RAID 5 nicht und das Promise-Array nicht die weitere Unterteilung eines RAID-Sets. Diese Systeme testeten wir also mit logischen RAID-1- respektive RAID-10-Laufwerken.

In Situationen, wo ein iSCSI-Array Load-Balancing-Ethernet-Bonding unterstützte, konfigurierten wir das Array so, dass es dieses Feature bestmöglich nutzte. Eine manuelle Lastverteilung führten wir für Systeme mit mehrfachen Gigabit-Ethernet-Verbindungen durch, die kein Bonding für ihre Ports durchführen konnten. Dazu schlossen wir jeweils zwei Server an jedem Port an. Iometer konfigurierten wir für die Nutzung roher physikalischer Laufwerke mit einem Worker-Prozess für jeden Prozessor. Jeder Server griff auf ein logisches iSCSI-Laufwerk im Array zu.

Die 64-kByte- und 2-MByte-Transfer-Tests waren sequenzielle Read- und Write-Tests, wobei der 2-MByte-Test gut mit einer Disk-to-Disk-Backup-Applikation vergleichbar war. Unser 512-kByte-IOPs-Test war ebenfalls ein sequenzieller Zugriff mit Single-Sektor-Requests. Der Network-Computing-Custom-Test nutzte einen Mix von 512-Byte-, 2-kByte- und 64-kByte-Requestgrößen mit einer 66/33-Squenziell/Randon-Zugriffsverteilung.

Fazit

Mit hohen Punktzahlen in den Rubriken Performance, Funktionalität, Management und Preis gewann das Produkt von Falconstor unsere Auszeichnung »Referenz«. Erwähnenswert ist aber unbedingt auch Equallogics PS100E-Storage-Array: Es ist ideal für Benutzer, die massive Erweiterungsfähigkeit benötigen. Intransas IP5500 ist ebenfalls ein System für Umgebungen, in denen es auf Erweiterungsfähigkeiten ankommt, aber es kostet auch einiges. Rund 60000 Dollar für ein System, das SATA-Laufwerke nutzt und ein zusätzliches Gigabit-Ethernet-Netzwerk erfordert, um die Komponenten verbinden zu können, sind viel Geld.

Der Snap-Server integriert Datei- und Blockspeicher in einem einzelnen, hoch performanten System, das sich bis auf 30 TByte Kapazität ausbauen lässt. Vielen Organisationen wäre durch die Konsolidierung all ihres Speichers auf einem Snap-Server gut gedient. Adaptecs iSA1500-Produkt ist insgesamt etwas enttäuschend. Es besitzt viele wichtige Features, aber seine eingeschränkte Performance und Erweiterbarkeit sorgten für Punktabzug. Sobald die Software der Vtrak-Lösung fähig ist, LUN-Maskierung durchführen und ein RAID-Set weiter unterteilen zu können, wird die Lösung den Grad eines voll ausgestatteten SAN-Arrays erreichen. Heute ist es jedoch eine Low-Cost-Lösung für Clustering und andere Applikationen, bei denen nicht mehr als ein paar Server gemeinsam ein Array benutzen. Seine limitierte Performance und eingeschränkte Erweiterbarkeit lässt das REO-4000 am besten für Backup-und-Restore-Applikationen geeignet erscheinen – und genau dafür wurde es auch gebaut. [ nwc, dj ]


Jetzt kostenfreie Newsletter bestellen!

Matchmaker+