Unternehmen entwickeln sich zunehmend zu Daten-Messies: Mittels vorausschauender Analysen soll die Erfolgsspur eingeschlagen werden, weshalb zunehmend mehr Daten gespeichert werden. Doch das stellt Backup-Administratoren vor neue Herausforderungen.
Laut einem Report von IDC verdoppelt sich das weltweite Datenvolumen alle zwei Jahre. 2014 haben die Branchenanalysten ein Anschwellen der globalen Datenmenge bis 2020 von damals 4,4 auf 44 Zettabyte prognostiziert. Die Gefahr: Uns geht langsam aber sicher der Speicherplatz aus. Aktuelle Zahlen von ESG Research zeigen wiederum eine wachsende Kluft zwischen Speicherbedarf und dem dafür verfügbarem Budget. Während der Bedarf an primärem Speicher jährlich im Durchschnitt um 40 Prozent steigt, bleiben die Budgets bei lediglich 4,6 Prozent weit hinter dem Datenwachstum zurück. Wie also können Kosten gespart und gleichzeitig alle Daten so gesichert werden, dass sie jederzeit für Analysen und Wiederverwertung zur Verfügung stehen?
Archivierung wird missverstanden
Um der steigenden Datenflut Herr zu werden hatten Backup-Admins bislang eine Allzweckwaffe im Einsatz: Deduplizierungsappliances. Doch je höher die Datenmenge wächst, desto agiler muss die Strategie für deren Sicherung werden. Neue Ansätze und Architekturen verknüpfen eine Kombination unterschiedlicher Speichermedien. Denn eins ist klar: Datensicherung entwickelt sich zum Datenmanagement. Der neue Tiered Storage-Ansatz setzt auf die Unterscheidung zwischen Backup und Archivierung. Für viele IT-Abteilungen ist die Archivierung von Daten gleichbedeutend mit einem dunklen Keller, in dem man stundenlang nach der richtigen Akte suchen muss. Archivierung steht für sie in direktem Gegensatz zum aktiven Zugriff auf Daten. Wenn IT-Abteilungen also nach einer langfristigen Lösung für die Datenvorhaltung suchen, wenden sie sich oft traditionellen Backup-Lösungen zu.
Diese Ansichten sind veraltet. Da Storage-Hersteller wissen, wie wichtig der zuverlässige Zugriff auch auf ältere Dateien für Unternehmen ist, haben sie ihre Produkte längst angepasst. Die Daten sind selbst im Archiv ‚lebendig‘. Trotzdem gibt es einen kleinen Nachteil: Die Performance ist unter Umständen nicht ganz so gut wie wenn sie auf teuren und hochperformanten Festplatten gesichert würden. Doch da diese Daten ohnehin oftmals nur noch für Analysezwecke verwendet werden, ist es annehmbar, wenn es ein paar Millisekunden länger dauert, bis sie verfügbar sind. Worauf Nutzer hingegen nicht verzichten können, ist die langfristige Sicherung der wertvollen Daten und der einfache Zugriff. Auch die alten Daten müssen gegen einen Ausfall der Komponenten abgesichert werden.
Tiered Storage nimmt Druck vom Primärspeicher
Die gute Nachricht: Es gibt mittlerweile viele Produkte auf dem Markt, die große Mengen an archivierten Daten leicht zugänglich machen und genauso gut schützen wie es bei einem Primärspeicher der Fall wäre. Gleichzeitig sind die Kosten bedeutend geringer und auch der ROI kann sich sehen lassen. Für die Unterscheidung zwischen Backup und Archivierung gelten die folgenden Regeln:
Die Unterscheidung in Archivierung und Backup bringt mehrere Vorteile mit sich: Daten, auf die nicht regelmäßig zugegriffen wird, werden vom teuren primären Speicher auf ein kostengünstiges Archivierungsmedium verschoben. Ebenso werden unstrukturierte Daten in den Archivierungsprozess mit eingebunden, wodurch die Kosten für Storage um bis zu 70 Prozent reduziert werden. Wie bei allen anderen Datensicherungsstrategien gilt auch bei Tiered Storage der Ansatz: Einen einzelnen goldenen Weg gibt es nicht. Viele Unternehmen gehen davon aus, dass Disk als sekundäres Speichermedium und Tape dann als tertiäres Medium für die langfristige Archivierung verwendet werden. Doch diese Annahme ist falsch. Grundsätzlich muss auch die Archivierungsstrategie an die Unternehmensziele und –Workflows angepasst werden.