Datenreplikation und -sicherung in der Cloud

Die Wolke als Backup

20. November 2013, 7:00 Uhr | Peter Wüst/wg,Director Strategic Pathways bei Netapp Deutschland.

Anwender in Deutschland haben es bislang versäumt, eine klare Sourcing-Strategie zu entwickeln und die Cloud als externe Ressource zu nutzen. Dabei sind Datenreplikation und Datensicherung geradezu prädestiniert für Cloud-Services. Lokale, kleine Service-Provider und Reseller, überregionale Anbieter wie T-Systems oder Atos, aber auch globale Player wie Amazon Web Services oder Microsoft Azure haben vielfältige und ausgereifte Angebote im Programm. Unternehmenskunden können damit schon heute von den Vorteilen der Cloud profitieren.Backup ist in vielerlei Hinsicht eine der undankbarsten IT-Aufgaben. Das Prozedere ist aufwendig und erfordert eine Überwachung ebenso wie regelmäßige Integritätsprüfungen. Die wachsenden Datenmengen bringen die Kapazitäten und Zeitfenster früher oder später an ihre Grenzen und erzeugen Investitionsbedarf. Den Investitionen in Hardware, Software und Know-how steht jedoch unmittelbar keinerlei Wertschöpfungsbeitrag gegenüber. Backup bindet lediglich Ressourcen. Was liegt also näher, als das Backup in die Cloud zu verlagern? Für eine Auslagerung spricht aus Kostensicht die Abrechnung nach Verbrauch (Pay-per-Use), die ein Unternehmen komplett als Betriebsausgaben (Opex) verbucht. Hinzu kommen Faktoren wie die Entlastung der IT-Administration oder mehr Freiraum für Aufgaben mit Mehrwert. Die technischen Voraussetzungen für Cloud Backup sind vorhanden, seit sich Disk-to-Disk-Backup als Standardverfahren in der Datensicherung etabliert hat. Aus Performance- und Verfügbarkeitsgründen tritt das klassische Modell der Sicherung mittels Backup-Software und -Server auf Tape-Medien immer stärker in den Hintergrund. Tape rückt somit an die zweite oder dritte Stelle einer Backup-Kette. Sein Bedeutungsschwerpunkt verschiebt sich automatisch in Richtung Langzeitaufbewahrung und revisionssichere Archivierung. Um die Vorteile auszuschöpfen, empfiehlt sich die Wahl eines Managed-Service-Angebots. Der Dienstleister übernimmt das Aufsetzen des zwingend notwendigen Initialspiegels der Daten in seiner Datacenter-Umgebung und kümmert sich um das komplette Prozedere gemäß der vereinbarten SLAs (Service Level Agreements). Diese sollten auf Zugriffssicherheit, Verfügbarkeit, Vollständigkeit und Nachvollziehbarkeit des Dienstes eingehen, aber auch die Einhaltung von Regelungen einschließlich Datenrückgabe, Dienstqualität und Datenschutzniveau je nach nationaler Gesetzgebung berücksichtigen. Um den Entlastungseffekt zu maximieren, sollten das Monitoring der Backups und die regelmäßige Erfolgskontrolle in der Verantwortung des Providers liegen. Die Remote-Sicherung der Daten über ein öffentliches Netzwerk (in der Regel das Internet) wirft natürlich Fragen nach der Sicherheit, Performance und Effizienz auf. Unverzichtbar sind Deduplizierung der Daten auf dem Quellsystem, Datenkompression sowie inkrementelle Sicherungen auf Block-Level. Diese Verfahren verringern das zu sichernde Datenvolumen, was nicht nur den Bedarf an Bandbreite senkt, sondern auch den Datentransfer beschleunigt. Umgebungen mit vielen und umfangreichen unstrukturierten Daten profitieren davon besonders. Grundsätzlich sollte man die Daten verschlüsselt übertragen und auch in der Cloud verschlüsselt ablegen. Die Frage, in welchem Verhältnis das lokale und das Cloud-basierte Backup stehen sollen, lässt sich pauschal nicht beantworten. Zu unterschiedlich sind die Anforderungen an die Verfügbarkeit der Backup-Daten. Das vorhandene IT-Knowhow eines Unternehmens spielt ebenso eine Rolle wie die Bereitschaft oder der Zwang, in eigene Ressourcen zu investieren oder Ressourcennutzung einzukaufen. Generell reicht das Spektrum von der vollständigen Auslagerung des Backups in die Cloud über deren dedizierte Nutzung etwa für mobile Geräte oder Microsoft Exchange bis hin zu projektbezogenem Bedarf wie Datenkopien für Test- und Entwicklungsteams oder Datenmigrationen. Hier stellt sich die Frage nach der Verfügbarkeit der Backup-Daten. Welche Daten müssen bei Bedarf wie schnell wiederherzustellen sein? Dies setzt in der Regel eine Klassifizierung voraus. Je erfolgskritischer bestimmte Daten oder Applikationen sind, desto knapper und granularer müssen die Recovery Time Objectives (RTOs) und Recovery Point Objectives (RPOs) ausfallen. Der RTO-Wert legt fest, wie lange ein Geschäftsprozess oder System ausfallen darf. Die beigemessene Zeitspanne reicht vom Zeitpunkt des Schadens bis zur vollständigen Wiederherstellung der Geschäftsprozesse, inklusive Infrastruktur, Daten und Wiederanlauf des Betriebs. RPO definiert den maximal akzeptablen Verlust von Daten oder Transaktionen, der sich nach dem Zeitraum zwischen zwei Backups richtet. RTO und RPO regeln zwar die maximale Dauer bis zur Wiederherstellung der Daten und die Häufigkeit des Backups. Damit ist aber noch nichts über die Art des Backups gesagt, das den Daten-Restore-Prozess beeinflusst. Die beiden aktuellsten Verfahren sind Crash-Consistent und Application-Aware. Bei ersterem werden die Daten in exakt dem Zustand wiederhergestellt, den sie zum Zeitpunkt eines Crash hatten. Das hört sich gut an, hat aber Mehraufwand zur Folge, wenn es sich um Datenbankdaten handelt. Da bei dieser Art der Sicherung weder Memory noch offene I/O-Transfers Berücksichtigung finden, muss man durch Einlesen der Logdateien nachbessern. Application-Aware Backup dagegen bringt Datenbanken vor der Sicherung auf einen konsistenten Stand, was Restores verkürzt. Speziell für Microsoft Exchange und SQL Server ist Application-Aware Backup unabdingbar, um im Ernstfall Zeit und Aufwand zu sparen und Verfügbarkeitsvorgaben zu erfüllen.   Hybrid Cloud Backup Nachdem kaum ein Vorgang des wirtschaftlichen Lebens mehr ohne IT auskommt, ist deren Verfügbarkeit sehr wichtig. Ein interessanter Trend geht daher zum so genannten Hybrid Cloud Backup. Statt Backup-Daten komplett auszulagern, behält man sie vor Ort und repliziert sie lediglich in die Cloud. Als Backup-Quellsystem dienen lokale Plattenspeicher oder auch dedizierte Backup Appliances mit Gateway-Funktion. Die aktuellsten Backups, die in der Regel am häufigsten benötigt werden, bleiben somit intern verfügbar, und es besteht jederzeit schneller und sicherer Zugriff. Eine Disk-to-Disk-to-Cloud-Sicherung ist mit traditioneller Backup-Software, die Datentransfer in die Cloud unterstützt, umsetzbar, ebenso mit Snapshot-basierter Replizierung direkt vom Primärspeicher, was einen Staging-Schritt erspart. Dabei sollte klar sein, dass Cloud Backup noch kein Disaster-Recovery-Konzept ist. Kombiniert mit Rechenleistung aus der Cloud kann es sich aber dazu entwickeln.   Mehr als nur ein Datenlager Wer die Cloud nur als Datenlager nutzt, verkennt ihren wahren Wert. Sind die Daten erst in der Cloud, lassen sie sich für beliebige Anwendungen nutzen. Disaster Recovery ist dabei nur eine Möglichkeit. Eine kaskadierende Sicherung auf Disk und zuletzt auch Tape ist ebenso denkbar wie Cloud Bursting, Test und Entwicklung oder Big Data Analytics direkt in der Cloud. Wer dafür seinen eigenen Storage nutzen will, kann dies anhand von Colocation-Angeboten mit Anbindung an Cloud-Dienste wie Amazon EC2 realisieren.

Die Verlagerung von Backups in die Cloud erleichtert diverse Arbeitsschritte und schafft neue Möglichkeiten. Bild: Netapp

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Axel Springer

Weitere Artikel zu PLM (Product Lifecycle Manage)

Matchmaker+