HDDs in professionellen Speichersystemen

Noch lange nicht ausgedient

31. Oktober 2014, 7:00 Uhr | Michael Speck, Sales Manager DACH bei X-IO, www.xiostorage.com./pf

"Der Bericht über meinen Tod war eine starke Übertreibung", schrieb Mark Twain einst mit dem ihm eigenen Humor. So ähnlich werden wir wahrscheinlich auch in zehn Jahren auf die heutigen Grabreden zum Thema rotierende Festplatte (HDD) zurück-schauen. Zu den wichtigsten Argumenten der Verfechter der reinen Flash-Lehre gehört, dass Festplatten unzuverlässiger seien als Flash-Speicher. Doch da gilt es genau hinzuschauen.

Abhängig von Festplattentypen, Umgebungsbedingungen und der genutzten Speichersoftware in den Servern oder Arrays, die die Festplatten nutzen, sprechen manche Quellen von einer Fehlerrate bei klassischen, rotierenden Festplatten von bis zu zehn Prozent pro Jahr. Aber es kommt nicht zuletzt darauf an, welche Festplatte der Anwender nutzt und wie er dies tut.
 
Drei Arten von Festplatten
HDDs gleichen einander von außen wie ein Ei dem anderen. Es gibt jedoch wesentliche Unterschiede hinsichtlich der Leistung, Zuverlässigkeit, Datenintegrität und der Robustheit bei dauerhafter Verwendung. Der Einsatz der richtigen Festplatten und eine sinnvolle Hardwarearchitektur bei professionellen Speichersystemen sorgen für eine sehr niedrige Ausfallquote und damit für höchste Datensicherheit zu geringen Kosten.
Laut Spezifikation tolerieren die meisten Festplattenhersteller eine jährliche Ausfallrate von einem Prozent. Dies entspricht einer MTBF (Mean Time Between Failures - durchschnittliche Zeit zwischen Ausfällen) von einer Million Stunden. Diese erreichen die Festplatten, wenn Anwender sie in der richtigen Umgebung einsetzen. Dafür, wie sich die MTBF berechnet, gibt es jedoch unterschiedliche Maßstäbe.
Bei Enterprise-Festplatten wird dabei ein Betrieb rund um die Uhr mit voller Geschwindigkeit angenommen, bei dem die Schreib-/Leseköpfe ständig in Bewegung sind. Abhängig von der Umgebung, in der sich die Festplatten befinden, entsteht viel Hitze, und der Verschleiß ist hoch. Enterprise-Festplatten sind also besonders robust konzipiert, damit sie auch bei hoher und dauerhafter Belastung eine Million Stunden am Stück arbeiten können.
Nearline-Festplatten sind ebenfalls auf eine Million Stunden MTBF ausgelegt - aber unter ganz anderen Voraussetzungen: Sie sollen nur etwa acht Stunden pro Tag genutzt werden. Zwar können sie rund um die Uhr laufen, aber sie sollten dabei nur zu 30 Prozent Lese- und Schreibzugriffe verzeichnen. Sonst drohen übermäßiger Verschleiß und erhöhte Ausfallraten.
Beides entspricht der Art der Umgebung, in der diese Festplatten Verwendung finden sollen: Enterprise-Festplatten sind mit Blick auf Leistung und hohe Auslastung konzipiert, Nearline-Festplatten sind auf Backups und Archivierung ausgelegt. Darüber hinaus gibt es noch den dritten Typ von HDDs, die Desktop-Festplatten, wie sie in PCs zum Einsatz kommen. Sie sind das, was üblicherweise gemeint ist, wenn von SATA-Platten die Rede ist: günstige Festplatten aus dem Computerladen, vorgesehen als Desktop-Festplatten für PCs oder als externe Backup-Laufwerke zu Hause oder in einem kleinen Büro. Sie sind nur für acht bis zehn Stunden Betriebsdauer pro Tag und geringe Auslastung ausgelegt.
Gerade Desktop-Festplatten führen oft zu der Frage der Geschäftsführung im Unternehmen, warum HDDs beim Anbieter von professionellem Speicher so teuer sind. Doch wer die falsche Platte für den falschen Zweck verwendet, leidet unter hohen Ausfallraten. Es fängt also bei der Auswahl der richtigen Festplatte an, wenn der Anwender verlässliche Storage-Hardware haben will. Doch es hört damit nicht auf - mindestens ebenso wichtig ist eine Hardwarearchitektur des Storage Arrays, die auf Leistung und Langlebigkeit ausgerichtet ist.
 
Kühlung und ruhige Lagerung
Zu den wesentlichen Gründen, warum Festplatten ausfallen, zählen Hitze und Vibrationen. Sie verursachen die Hälfte der Ausfälle. Die gegenseitigen Vibrationen der verschiedenen Festplatten, unzureichend gekühlte Stellen im Storage sowie die Vibration gesamter Arrays verschwenden außerdem Leistung. Denn diese Faktoren sorgen dafür, dass die Schreib-/Leseköpfe oft mehrere Anläufe brauchen, um auf den Nanometer genau ihren Zielort zu treffen. Es ist ein Gerücht, dass Speicher-Shelves, Festplattenfächer oder extrem dicht gepackte Laufwerkspakete und Server mit vielen HDDs die Vibrationen gut verkraften und genügend Kühlung im Chassis bieten würden. In solchen Architekturen liegen die Ausfallraten oft bei drei bis fünf Prozent pro Jahr.
Manche Hersteller versuchen, mit starker Ventilation zu arbeiten, um zum Beispiel 60 Festplatten auf engem Raum zusammenzustauchen. Die Kühlung kann nicht dauerhaft gelingen. Auch der stärkste Luftstrom sucht sich immer den Weg des geringsten Widerstands, er bewegt sich nicht in zu klein geratene Nischen und Kanäle.
Die Vibration in Storage Arrays zu minimieren, beginnt bei der Lagerung und Arretierung der Festplatte und setzt sich fort beim Rahmen und Chassis. Boxen aus Blech und Plastik sind der falsche Weg, sie leiten die äußere Vibration nach innen weiter. Aus dem Block gefräste Chassis, können die äußeren und inneren Vibrationen dagegen auffangen. Jede HDD sollte in Kunststoff stabil verschraubt und großzügig an allen Seiten mit Gummi gepuffert sein. Dies widerspricht wohlgemerkt dem gängigen Service-Modell im Storage-Bereich, in dem Harddisks möglichst leicht und schnell austauschbar sein sollen.
Wenn Festplatten ausfallen, drohen Datenverluste. Selbst wenn RAID im Einsatz ist, dauert es angesichts der Größe heutiger Festplatten viele Stunden bis zur Wiederherstellung der Daten. In dieser Zeit sinkt die Leistung und es besteht ein erhöhtes Risiko des Datenverlustes durch einen weiteren Ausfall. Dies ist für die meisten Unternehmen inakzeptabel. Viele Speicheranbieter begegnen der Herausforderung mit Flickschusterei, indem sie neue Algorithmen nutzen oder mehr Kopien der Daten anlegen. Doch am Ende resultiert beides in höheren Kosten für den Anwender.
 
Hardwareprobleme durch Software
Zu guter Letzt führen auch die äußere IT-Umgebung und die Nutzung unausgereifter Software zum Ausfall von Festplatten in Speichersystemen. Viele Festplatten werden als defekt eingesendet, doch die Hersteller finden bei der Analyse keinen Hardwarefehler: "No Trouble Found" (NTF). Die Festplatten gehen nach einem Hardware- und/oder Software-Reset wieder für den produktiven Gebrauch zurück zum Kunden. Rund 90 Prozent der "ausgefallenen" Festplatten sind ein Fall von NTF und eigentlich physisch unversehrt. Verursacht werden die Ausfallmeldungen, weil die wenigsten Speichertechniken und Host-Treiber nach einem Ausfall einen umfassenden Neustart veranlassen.
Hitze und Vibrationen führen dazu, dass das System Lese- oder Schreibvorgänge mehrfach versuchen muss, dass sich Sektoren nicht nutzen lassen, Synchronisierungen wiederholt oder Festplatten neu gestartet werden müssen. Eine Software, die unzureichend designt oder konzipiert ist, kennzeichnet eine Festplatte, die aus diesen Gründen nicht wie erwünscht arbeitet, als "defekt". Möglicherweise leitet sie vorher noch ein Rebuild ein. Doch das Rebuild der Daten korrigiert nicht die Funktionsschwächen der Storage-Software und des Hardwaredesigns. Die Fehlfunktion bleibt, und die vermeintlich kaputten Platten stehen in der Regel zum Austausch an. Intelligente Storage-Systeme integrieren dagegen die Standardreparatur direkt in ihre Architektur und setzen die Festplatten wieder in Betrieb, ohne dass jemand Hand anlegen muss.
In einem solchen robusten System sind dann auch die Mehrkosten für RAID-6 im Vergleich zu RAID-5 oft unnötig, weil dieses Festplattenausfälle schon im Vorfeld elegant vermeidet. Was ist besser: Mit RAID-6 den gleichzeitigen Ausfall von zwei Festplatten zu verkraften? Oder die robuste Bauweise eines Arrays für Schwingungsfreiheit, optimale Kühlung sowie automatische Reparaturmechanismen der Festplatten, die die Zahl der Totalausfälle von Platten auf einen Bruchteil üblicher Werte senkt.
Weil viele Anbieter die falschen Festplatten verwenden und diese unzureichend schützen, hat das Vertrauen von Unternehmen in HDDs abgenommen. Dabei könnten sehr viele Unternehmen die benötigte Leistung mit einem gut designten HDD-Speicher-Array erreichen, bei Hybrid-Arrays sogar mit annähernd gleicher Leistung wie ein All Flash Array - selbst bei Leseoperationen.

Für Langlebigkeit sollten HDDs in Kunststoff stabil verschraubt und großzügig mit Gummi gepuffert sein. Im Bild ein hybrides "Datapac" von X-IO. Bild: X-IO

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu KnowBe4

Matchmaker+