Digitaler Rettungsdienst

27. September 2007, 12:23 Uhr |

Recovery in konvergenten IP-Netzen – Moderne Storage-Konzepte erfordern eine Anpassung der Datenrettungsmethoden.

Moderne IP-Netze werden immer schneller und transportieren dabei mittlerweile durch die Konvergenz der Technologien die vielfältigsten Formate. Neben den klassischen Daten werden noch Sprache und multimediale Inhalte übermittelt. Dadurch steigt der Sicherungsbedarf mit dem explodierenden Netzverkehr rasend schnell an und erfordert umfassende Backup-Strategien. Neben den Storage-Anbietern sind dadurch im Ernstfall die Datenrettungs-Unternehmen gefragt.

Die Netzwerke und Bandbreiten als solche haben natürlich an sich keinen direkten Bezug zur Datenrettung, allerdings die Applikationen, die hinter dem Begriff Konvergenz stecken. Der überall zu beobachtende drastische Anstieg anfallender Daten ist mit Sicherheit ein Garant für potenzielle Kundschaft der Datenretter. Vor allem die Storage-Infrastruktur großer Unternehmen oder Service-Provider ist für die zuverlässige Sicherung der Daten entscheidend. Derzeit werden hauptsächlich SAN-Architekturen, NAS-Lösungen und iSCSI-Plattformen eingesetzt. Allen gemeinsam ist die Verwendung von Festplatten in Servern beziehungsweise RAID-Systemen. Hier liegt aus Sicht der Datenrettung der eigentliche Schwachpunkt.

Die Nutzung von RAID-Systemen allein reicht aber eben nach Ansicht von Netzwerkspezialisten bei weitem nicht aus, den Ansprüchen moderner Geschäftsprozesse zu genügen. Erst der Einsatz dezidierter unternehmensweiter SAN-Lösungen gewährleistet die geforderte Ausfallsicherheit bei der Datenhaltung. SANs bieten eine Reihe von Vorteilen: Eine hohe Verfügbarkeit und Skalierbarkeit von Speicherressourcen zählt ebenso dazu wie eine spürbare Entlastung des Administrators durch ein zentrales Datenmanagement. Spiegelungs- und Snapshot-Technologien erhöhen die Datensicherheit und Backup-Prozeduren sind in SANs ohne Belastung des Server-Netzwerks möglich. Moderne SANs basieren auf der Kombination von SCSI- und Fibre-Channel-Technologien.

Hier liegt allerdings auch das Defizit traditioneller SANs. Die Notwendigkeit, neben der Ethernet-basierenden LAN-Plattform für die File-Server, ein FC-Speichernetz zu betreiben, erweist sich in der Praxis oft als großes Manko. Eine aufwändige Planung und Implementierung sowie eine separate Verkabelungsstruktur erfordern neben dezidiertem Know-how hohe Investitionskosten.

iSCSI auf dem Vormarsch

Das iSCSI-Protokoll »kapselt« SCSI-Befehle in TCP und verschickt sie blockweise über Ethernet. Es nutzt damit zwei Technologien, die in nahezu jedem Unternehmen vorhanden sind. Die Kosten für die Beschaffung und den Betrieb von LANs, die auf IP und Ethernet basieren, sind wesentlich niedriger als die Kosten für vergleichbare SANs. Mit iSCSI lassen sich daher jetzt auch für kleine und mittlere Unternehmen preisgünstige Speicherlösungen realisieren. Die Flexibilität, Skalierbarkeit und Verfügbarkeit von SANs können somit auch von Servern in mittleren und niedrigeren Preiskategorien genutzt werden. Firmen, die bisher auf Grund der vergleichsweise hohen SAN-Kosten die Nachteile von Network-Attached-Storage in Kauf nehmen mussten, bietet sich mit iSCSI eine leistungsfähige Alternative. Der Einsatz von iSCSI ist in verschiedenen Topologien denkbar.

Zum einen sind das direkte Punkt-zu-Punkt-Verbindungen, wobei an Stelle eines SCSI-Controllers im Host und eines SCSI-Busses ein Ethernet-Adapter samt iSCSI-Treiber und eine Ethernet-Verbindung genutzt werden. Zum anderen gibt es ein dezidiertes IP-Storage-Netz, in dem die Hosts einerseits mit dem LAN und andererseits mit einem separaten Ethernet/IP-Netz für Storage-Anbindungen verbunden sind. Weiterhin kann ein gemischtes LAN mit einem Nebeneinander von herkömmlichem LAN-Verkehr und Storage-bezogener Datenkommunikation aufgebaut werden. Abschließend sind noch Standort-übergreifende Storage-Lösungen auf der Basis von IP über WAN und gemischte iSCSI/FC-Umgebungen, wobei iSCSI-Hosts an bereits existierende FC-SAN-Lösungen angebunden werden, denkbar.

Während sich Fibre-Channel nach anfänglichen Startschwierigkeiten auf Grund von Interoperabilitätsproblemen der Produkte unterschiedlicher Hersteller inzwischen als zuverlässige und leistungsstarke Interconnect-Tech- nologie in den Speichernetzen vor allem größerer Unternehmen etabliert hat, kämpft iSCSI noch immer mit Akzeptanzproblemen. Viele Anwender hegten Zweifel an der Zuverlässigkeit und Performance der IP-Technologie, obwohl Network-Attached-Storage über IP seit Jahren erfolgreich auch in anspruchsvollen Umgebungen wie Datenbanken genutzt wird.

Doch iSCSI ist eine sogenannte »Disruptive Technology«, darin sind sich Hersteller wie auch Analysten einig. Der englische Fachausdruck meint eine Technologie, deren Einsatz weit reichende Folgen für die Nutzer mit sich bringt. So ist man überzeugt, dass sich iSCSI in nahezu allen Einsatzgebieten für Speichernetze etablieren wird. Eine Ausnahme wird lediglich bei unternehmenskritischen Anwendungen, die höchste Leistung – in Form von maximalen Datentransferraten – erfordern.

So bevorzugen über zwei Drittel der Unternehmen für ERP-, CRM- oder andere Datenbank-Umgebungen Fibre-Channel als Interconnect-Technologie im Speichernetz. Bei der Paradedisziplin Backup würden sich hingegen schon knapp über die Hälfte der Anwender für eine iSCSI-Lösung entscheiden. Noch höher liegt die Akzeptanz für IP-Storage, wenn es um Remote-angebundene Niederlassungen und Abteilungen geht, sowie generell bei Applikationen, die nur wenig genutzt werden und geringe Anforderungen an die Leistung der Speichersysteme und deren Anbindung stellen. Grundsätzlich stehen aber im Fall eines Datenverlusts die in einer SAN- oder iSCSI-Plattform integrierten RAID-Verbünde im Fokus.

Die Datenrettung wird mit der Komplexität dieser soeben beschriebenen Systeme definitiv aufwändiger. Jeder einzelne Hersteller solcher Speichersysteme hat basierend auf der einheitlichen Technologie seine Eigenheiten und somit besteht hier die Individualität jedes einzelnen Datenrettungsfalls. Ein Vergleich der explodierenden Datenmengen in der Rettung mit dem enormen Zuwachs an Datenmengen in konvergenten IP-Netzen ist also absolut zulässig.

RAID-Systeme im Mittelpunkt der Datenrettung

Die Datenmengen sind im Zuge der umfangreicheren und anwenderfreundlicheren Applikationen und den höheren Festplatten-Kapazitäten enorm gestiegen. Je mehr Datenträger im Einsatz sind, desto höher ist die Wahrscheinlichkeit eines Hardwareausfalls. Weiterhin werden die Speichersysteme immer komplexer beziehungsweise komplizierter in der Anwendung und der Faktor »Mensch« bekommt auf Grund dessen ebenfalls einen neuen Stellenwert als Ursache für einen Systemausfall oder -defekt. Wie sich der IT-Verantwortliche vorbeugend vor Datenverlust schützen kann hängt auch von der Konfiguration der RAID-Systeme ab.

Um eine Ausfallsicherheit nahe 100 Prozent zu erreichen müssen beispielsweise alle Komponenten des Speichersubsystems inklusive Controller, Netzteil und Lüftern redundant ausgelegt werden. Solche Lösungen bietet die Industrie zwar durchaus an, preiswert fallen sie aber nicht gerade aus. Darüber hinaus ereignen sich Ausfälle von Laufwerken und anderen Komponenten nicht immer unabhängig voneinander. In der Praxis treten immer wieder Situationen auf, durch die sich die Ausfallwahrscheinlichkeit des gesamten Disk-Arrays schlagartig erhöht.

Dazu zählen beispielsweise durch Blitzschlag verursachte Überspannungen, Überschwemmungen oder Brände. Auch Computerviren, Würmer und Trojaner befallen RAID-Systeme ebenso gern wie Einzellaufwerke. Schließlich kann selbst das zuverlässigste Array den menschlichen Faktor, den Benutzer, nicht ausschalten. Einen großen Teil aller irreparablen Datenverluste verursachen nämlich nicht nur Hardwaredefekte, sondern auch gravierende Fehlbedienungen. Beschädigte oder gelöschte Dateien sind auch auf dem zuverlässigsten Plattenverbund unwiederbringlich verloren.

Rechnersysteme, die mit einem RAID-Controller ausgestattet sind, zeigen während der Bootphase nur rudimentäre Informationen über den Adapter und das installierte RAID-Level an. Allerdings kann der Anwender per Eingabe einer Tastenkombination in das interne Konfigurationsmenü des Adapters gelangen. Neben den verschiedenen RAID-Level-Optionen und deren Initialisierung sind darüber hinaus unterschiedliche Schreib-, Lese- und Cache-Einstellungen möglich. Diese Policies sind von dem RAID-Controller abhängig und können sich von Produkt zu Produkt unterscheiden.

Diese oft wenig beachteten Funktionen haben bei einer falschen Einstellung enorme Auswirkungen auf die Leistung des Storage-Systems. Damit Daten, die während einer Schreiboperation im Onboard-Cache zwischengespeichert werden, bei einem Stromausfall nicht verloren gehen, bieten die Hersteller für ihre RAID-Controller optionale, so genannte Battery-Backup-Units (BBU) an. Nach einem Stromausfall – sobald der Controller und die Festplatten wieder mit Energie versorgt werden – schreibt der Controller die gepufferten Daten im Cache ohne Datenverlust sofort auf die Festplatte.

Im Allgemeinen verfügen die meisten RAID-Controller über zwei unterschiedliche Strategien, um Daten vom Betriebssystem auf die Festplatten zu schreiben: Write-Back und Write-Through. Beim Write-Back schickt der RAID-Controller einen Bestätigungsbefehl (»Completion-Status«) an das Betriebssystem, sobald der Pufferspeicher des Controllers die Schreibdaten für die Festplatte vom System erhalten hat. Der Controller hält die Informationen so lange im Cache, bis der Controller einen geeigneten Zeitpunkt findet, die Daten an die Festplatte zu übertragen. Dies erfolgt zu einem Zeitpunkt, zu dem die Systemressourcen nicht voll beansprucht werden, so dass diese Strategie die Schreibleistung signifikant verbessert.

Allerdings hat das Write-Back-Verfahren auch Nachteile. Tritt eine Störung bei der Stromversorgung auf, sind unter Umständen wichtige Daten, die noch nicht vom Cache-Controller auf die Festplatte geschrieben wurden, unwiderruflich verloren. Deshalb ist es empfehlenswert, die meist optional erhältliche Batteriepufferung des Cache-Controllers mitzubestellen oder sich gleich für eine USV zu entscheiden.

Anders verhält sich die Write-Through-Strategie. Diese sendet einen Bestätigungsbefehl erst an das Betriebssystem, wenn die Daten sicher auf die Festplatte geschrieben wurden. Deshalb kostet das Verfahren Performance, da die Informationen ohne Zwischenpufferung direkt, ohne Rücksicht auf aktuelle Systemressourcen, auf die Festplatte geschrieben werden. Darüber hinaus unterscheidet sich die Schreibleistung mit aktiviertem Write-Through-Cache kaum von der Performance eines Controllers ohne Cache-Unterstützung. Wie bei den Schreiboperationen bietet ein RAID-Controller auch für die Leseanweisungen verschiedene Caching-Strategien. Im Einzelnen sind dies Read-Ahead (als Default-Einstellung), Adaptive-Read und No-Read-Ahead. Bei der Read-Ahead-Strategie fordert der RAID-Controller neben den tatsächlichen Daten auf der Festplatte auch die weiteren Informationen, die daneben liegen, an. Diese »vorweggenommenen« Daten werden in den Cache zwischengespeichert. Werden beim nächsten Request diese Daten verlangt, kann der Controller diese direkt aus dem Puffer lesen und an das Betriebssystem weiterleiten.

Ein Zugriff auf die Festplatte ist dann nicht mehr erforderlich. Das spart Zeit und erhöht die Performance bei Datenanforderungen. Besonders bei zusammenhängenden Datenstrukturen, die sequenziell gelesen werden können, wie Video-Streams oder Audio-Files, kann dieses Verfahren seine besondere Stärke ausspielen. Auch die Defragmentierung einer Festplatte wirkt sich positiv auf die Performance des Storage-Systems aus, wenn die Read-Ahead-Funktion des Cache-RAID-Controllers aktiviert ist.

Die Adaptive-Read-Ahead-Option beinhaltet eine »intelligente« Read-Ahead-Strategie. Diese aktiviert Read-Ahead-Lesezugriffe erst dann, wenn zwei aufeinander folgende Read-Anweisungen Daten aus zwei hintereinander liegenden Sektoren der Festplatte auslesen. Erhält der RAID-Controller Daten aus zufälligen Sektoren der Festplatte, schaltet er in den No-Read-Ahead-Modus um. Der Controller wertet aber weiter alle Leseanweisungen aus, als ob sie aus zwei hintereinander liegenden Sektoren kämen. Ist dies der Fall, kann er sofort wieder Read-Ahead-Zugriffe einleiten. Im No-Read-Ahead-Modus liest der Storage-Controller nicht »vorausschauend« die Daten ein. Das heißt, es wird nur jeweils ein Sektor eingelesen, auch wenn der folgende Nachbarsektor die nächsten Lesedaten enthält. Welche Read-Strategie die bessere ist, hängt letztlich von der Anwendung ab – und von deren Datenstruktur auf der Festplatte.

Fazit

Hardwareausfälle und Bedienungsfehler sind nach wie vor Hauptursachen für einen vermeintlichen Datenverlust, egal welche Storage-Lösung im IP-Netz eingesetzt wird. Kritisch wird es meistens nur dann, wenn nicht adäquate Mittel die logische Zerstörung der Datenstrukturen fortführen. Jedoch bedeutet nur die Überschreibung von Daten und Partitionierung oder ein Low-Level-Format die komplette Vernichtung der Daten – dazu kommt es aber in der Regel nicht aus Versehen. Selbst wenn es im RAID-Verbund zu Ausfällen kommt, ist es daher für Hilfe nicht zu spät. Auf den immer weiter verbreiteten mobilen Speichern sollten entweder keine geschäftskritischen Daten gespeichert sein oder diese Geräte in die Backup-Strategie beim Synchronisieren eingebunden sein.

Peter Böhret, Managing Director,
Kroll Ontrack


Jetzt kostenfreie Newsletter bestellen!

Matchmaker+