Bahn frei für Backup und Archivierung

27. September 2007, 12:23 Uhr |

Storage-Management – Heute gilt es, zwei Ziele unter einen Hut zu bringen: Die wirtschaftliche Nutzung der Ressource Speicher und die effiziente Sicherung der wichtigen Datenbestände. Hier sind innovative Konzepte im Speichermanagement gefragt.

Das Dilemma der Speicheradministratoren ist schon seit Jahren bekannt – und es verschärft sich von Jahr zu Jahr, wenn keine technischen und organisatorischen Gegenmaßnahmen ergriffen werden: Die Unternehmen speichern einerseits viel zu viele Daten, andererseits fehlen die Mittel, diese Datenflut effizient zu verwalten. Die Folge: Die Zeit für die nächtliche Sicherung der riesigen Datenbestände auf relativ langsame Magnetbandlaufwerke wird knapp – und die Speicherkosten explodieren.

Nach Analysen der Marktforscher von IDC greifen die IT-Chefs oft zum einfachsten Mittel, um dieses Problem zu lösen. Sie stocken jährlich die Plattenspeicher-Kapazität um derzeit durchschnittlich 40 bis 50 Prozent auf. Damit tragen sie dem Datenwachstum Rechnung, das von neuen IT-Anwendungen, wachsenden Datenbanken, zunehmendem E-Mail-Verkehr, dem Trend zu plattenbasierter Datensicherung und der Archivierung mit verstärktem Fokus auf Aufbewahrungsfristen und Compliance-Anforderungen getrieben wird. Allerdings erweist sich die Aufstockung der Speicherkapazitäten als unwirtschaftliche und oft sogar kontraproduktive Vorgehensweise, da nach IDC-Analysen nur etwa 20 Prozent der Unternehmensdaten wirklich auf den hoch performanten, dafür aber auch relativ teuren Online-Platten vorgehalten werden müssten. Der Rest könnte auf kostengünstige Archivspeicher wie Magnetband oder DVD ausgelagert oder sogar umgehend gelöscht werden. Das spart Speicherkosten, verbessert die Performance und verkürzt den Zeitbedarf für das Backup – und auch die Recovery – der wirklich wichtigen Unternehmensdaten.

Als wirksame Maßnahme gegen das Storage-Dilemma gilt der Aufbau eines intelligenten Speichermanagements unter Berücksichtigung innovativer Technologien für Backup/Recovery, Hochverfügbarkeit und Archivierung. Gemeint ist damit eine hoch integrierte Verwaltung möglichst aller Informationen, Daten und Speicher-Ressourcen im Unternehmen. Die beiden wichtigsten Ziele eines solchen Speichermanagements sind Kostenreduktion und Steigerung der Qualität der IT-Services, die sich durch die bessere Ausnutzung der Ressourcen, den besseren Schutz der Daten und die Einhaltung regulativer Richtlinien erreichen lassen. Daher stehen die drei Aufgaben Storage-Resource-Management (SRM), Data-Availability und Compliance im Fokus der Speicheradministratoren – Aufgaben, die mit Tool-Unterstützung möglichst automatisiert werden sollten.

Die besten Ansatzpunkte für Verbesserungen im Speichermanagement liefert das Backup, für das die Speicheradministratoren im Durchschnitt nach wie vor rund 80 Prozent ihrer Arbeitszeit investieren. Zwar sind die Backup-Läufe selbst weitgehend automatisiert, doch muss ihre ordnungsgemäße Durchführung in der Regel noch manuell verifiziert werden, da dies über die Grenzen heterogener Plattformen, isolierter »Speicher-Inseln« und mobiler Endgeräte bisher nur selten automatisch sichergestellt sein kann.

Daher hat beispielsweise CA bei der Weiterentwicklung ihrer Produktfamilie Brightstor einen Schwerpunkt auf die plattformübergreifende Funktionsweise gelegt, die alle Komponenten der IT-Infrastruktur vom Server über das Storage-Area-Network bis hin zum Desktop im Home-Office oder zum mobilen Endgerät einbezieht. Der zweite Entwicklungsschwerpunkt ist die Integration innovativer Technologien wie Virtualisierung oder Multi-Streaming, die sowohl Sicherung als auch Wiederherstellung der unternehmenskritischen Daten erleichtern und so Datenschutz und -verfügbarkeit verbessern. Gleichzeitig wird aber auch die Implementierung eines hierarchischen Speichermanagement (HSM) und die Compliance-konforme Archivierung aller wichtigen Daten im Unternehmen möglich.

Virtualisierung der Speicherressourcen

Die Virtualisierung der Speicherressourcen – etwa in Form von Storage-Area-Networks oder Virtual-Tape – kann die Backup-Prozesse deutlich beschleunigen, indem beispielsweise die Daten zunächst auf eine schnelle Platte als Zwischenspeicher gesichert und dann erst auf kostengünstigere Magnetbänder ausgelagert werden. Die Rede ist hier von Virtual.Tape oder Disk-to-Disk-to-Tape (D2D2T). Der Einsatz von Online-Speicher-Virtualisierung ermöglicht den unkomplizierten, systemübergreifenden und effektiven Einsatz von Snapshot oder Copy-Prozessen.

In diesem Fall muss die Datensicherung nicht mehr »offline« in Zeiten der Betriebsruhe erfolgen, weil die zu sichernde Applikation geschlossen oder für die Dauer der Sicherung im Backup-Modus sein muss, um die Konsistenz der Daten zu wahren. Diese Zeit- und Ressourcenverschwendung ist bei dem heutigen »Rund-um-die-Uhr-Betrieb« inakzeptabel. Systemverwalter »frieren« daher den Augenblickszustand der zu sichernden Daten mit einem Schnappschuss ein und verarbeiten sie anschließend außerhalb des laufenden Betriebs weiter.

Beispielsweise erstellt der Administrator nachts Snapshots der Lotus- oder Exchange-Datenbanken, die wegen ihrer Größe von einigen TByte nicht mehr in akzeptabler Zeit auf Magnetband gesichert werden können. Beim Snapshot dagegen wird die Datenbank nur für wenige Minuten eingefroren; danach kann die

Datensicherung »serverless« mit der Datenbankkopie erfolgen, ohne die Performance der Datenbank oder des produktiven Servers zu beeinträchtigen. CA arbeitet in diesem Umfeld seit Jahren erfolgreich mit dem Virtualisierungsanbieter Storeage zusammen. Der klassische Online-Backup-Agent hat nach wie vor seine Berechtigung. Der Vorteil des Backup-Agenten liegt darin, dass hiermit ein granulares Backup beziehungsweise Restore möglich ist, somit können einzelne Objekte wie E-Mails wiederhergestellt werden.

Zentrale Backup-Strategie für das Unternehmen

Das Backup-Tool sollte dem Administrator die Nutzung all dieser Speichertechnologien für die Datensicherung erlauben – und zwar möglichst plattformübergeifend, so dass eine zentrale Backup-Strategie für das Unternehmen unabhängig von den eingesetzten Plattformen möglich ist. Dabei sollten die Speichertechnologien einerseits bei der Umsetzung der Backup-Konzepte transparent bleiben, andererseits jedoch auch gezielt nutzbar und beeinflussbar sein.

So wird beispielsweise dank der Integration von Storeage in Brightstor-Arcserve-Backup von CA die Erstellung des Snaphots ein Teil des gesamten Backup-Jobs. Durch diese enge Zusammenarbeit lässt sich Storeage schnell und zuverlässig integrieren. Die Nutzung von Virtual-

Tapes gerade für das tägliche Backup hat in den letzen Jahren massiv zugenommen. Dieser Trend lässt sich bei Unternehmen jeglicher Größe feststellen. Neben den Kosten ist für Unternehmen vor allem die einfache Handhabung und die problemlose Integration in bestehende Backup-Prozesse der Grund für den zunehmenden Einsatz. Durch Virtual-Tape kann die Anzahl von »physischen« Tapes reduziert und die Auslastung der Bänder gesteigert werden. Für den Administrator ist vor allem die geringe Fehleranfälligkeit und die einfache Administration interessant. Gerade die Zusammenarbeit von virtuellen und physikalischen Tapes hilft vielen Unternehmen ihre Backup-Prozesse deutlich zu verbessern.

Wird das Backup-Fenster knapp, können aber auch Technologien wie Multi-Streaming oder Multi-Plexing Zeit bei der Datensicherung sparen helfen. Dabei wird die zu sichernde Umgebung aufgeteilt. Die Datensicherung erfolgt parallel auf verschiedene Bandlaufwerke in einem Bruchteil der Zeit. Ebenso kann es beschleunigend wirken, wenn die zu sichernden Daten – beispielsweise beim inkrementellen Backup – von mehreren Jobs gleichzeitig und nicht seriell ermittelt werden. Allerdings wirkt diese Parallelisierung nur beim Backup beschleunigend, nicht jedoch beim Restore.

Mit Lösungen wie der neuen Version Brightstor-Arcserve-Backup r11.5 kann das D2D2T-Backup weiter verbessert werden. Nun ist es möglich, umgekehrt mehrere Backup-Streams auf das gleiche Device zu schreiben, ohne weitere Verschachtelungen im Backup-Job definieren zu müssen, – und ohne dass es im Restore-Fall zu Zeitverzögerungen kommt. Die Backup-Erfolgsrate wird so erhöht, da es weniger Medienprobleme und Laufwerkfehler während des Backups gibt.

Außerdem lassen sich die Backups von Hardware-Fehlern des Endgerätes oder -mediums isolieren, indem die Sicherung automatisch auf den Staging-Bereich umgeleitet wird, wenn das Bandlaufwerk nicht zur Verfügung steht. Falls die Staging-Area nicht zur Verfügung steht, kann das Backup umgekehrt automatisch auf die »Final Destination« umgeleitet werden. Sonst würde ein Backup-Fehler auftreten, auch wenn nur das Staging-Volume voll ist oder der definierte Schwellwert erreicht wurde.

Übergreifendes Storage-Resource-Management

Doch nicht nur die – eventuell parallele – Nutzung schnellerer Platten, Bandlaufwerke oder Jukeboxen sowie neuer Backup-Verfahren verbessert das Speichermanagement, sondern auch die Integration in ein übergreifendes Storage-Resource-Management (SRM). Damit lassen sich die Datenbestände aufbereiten, und zwar in puncto Qualität und Speicherort der Daten. Denn sind die Daten veraltet, unwichtig oder redundant, müssen sie nicht gesichert werden. Im Umkehrschluss lassen sich aber auch Datenbestände identifizieren, die bisher fälschlicherweise nicht gesichert wurden.

Abhängig von Eigenschaften wie Alter, Benutzungshäufigkeit, Größe oder Eigentümer/Nutzer von Datenbeständen kann das SRM auch eine Archivierung oder die Verlagerung auf ein angemessenes Speichermedium vorschlagen. Die Rede ist dann von einem hierarchischen Speichermanagement (HSM). Dabei werden die Speicher-Ressourcen des Unternehmens zu einem virtuellen Pool zusammengefasst, in dem die Daten auf dem jeweils optimalen Medium gespeichert werden. Sowohl die Auslagerung von Online-Daten (Migration) als auch das Zurückladen erfolgen transparent und automatisch.

Automatisch Backup-Jobs generieren

SRM wird eingesetzt, um die vorhandene Datenstruktur im Unternehmen zu analysieren, um dann längerfristig Regeln einzusetzen, mit denen die Datenstruktur im Unternehmen vereinheitlicht und vereinfacht wird. Regelbasiert lassen sich dann automatisch Backup-Jobs generieren, die automatisch alle wichtigen Daten sichern. Sie werden mit Hilfe einer mächtigen Engine zur Prozess-Automation zentral gestartet und auch überwacht, etwa darauf hin, ob die Sicherung dieser Daten auch erfolgreich war.

Dazu reicht es nicht, dass die Jobs ordnungsgemäß abgeschlossen wurden. Vielmehr sind auch die Abhängigkeiten von anderen Datenbeständen zu berücksichtigen, damit durch Inkonsistenzen später keine Probleme bei der Recovery vorprogrammiert sind. Diese Backup-Jobs können im Störungsfall automatisch wieder aufgesetzt werden.

Vor diesem Hintergrund ist Backup noch lange kein alter Hut. Vielmehr ist eine rasche Weiterentwicklung der Tools ebenso gefragt wie eine enge Integration mit den Disziplinen des unternehmensweiten Netzwerk- und Systemmanagement, sowie in die Mechanismen der IT-Security, um unberechtigte Zugriffe auf Sicherungsdateien oder ein Backup virenverseuchter Datenbestände wirksam zu verhindern.

Die Vorteile liegen auf der Hand und sind nicht nur technischer Natur. Hierzu zählt eine auf jedem System identische Oberfläche zur Bedienung. Genauso wichtig sind organisatorische Aspekte wie die nachweisliche Einhaltung gesetzlicher Vorschriften – etwa Aufbewahrungsfristen –, ein wesentlich vereinfachtes Auditing und die permanente Kontrolle der Risiken eines Datenverlustes. Letztlich lässt sich mit solch innovativen Storage-Managementkonzepten der Einsatz sämtlicher Geräte, Daten und Verfahren lückenlos dokumentieren, und zwar rund um die Uhr bis ins kleinste Detail der gesamten IT-Infrastruktur des Unternehmens.

Stefan Ehmann
Business Technologist Storage Management, CA


Jetzt kostenfreie Newsletter bestellen!

Matchmaker+