Bei der Planung und Umsetzung einer effizienten Back-up- und Recovery-Strategie zum Schutz virtualisierter IT-Umgebungen lässt sich auf in der Praxis bereits bewährte Vorgehensweisen und Verfahren zurückgreifen. Die zehn wichtigsten Best Practices im Überblick.
Drei Kopien anlegen: Drei Kopien anzufertigen ist ein gängiger Weg, um geschäftsentscheidende Informationen umfassend zu schützen. Neben einer Sicherung der aktiven Produktionsdaten sollte noch ein primäres sowie ein sekundäres Back-up – sozusagen ein Backup vom Back-up – verfügbar sein. Am einfachsten lässt sich dies durch den Einsatz einer Anwendung realisieren, die Daten gleichzeitig in mehrere Ziele schreiben kann. Besteht diese Möglichkeit nicht, bietet es sich an, mehrere Back-up-Jobs zu erstellen und für jeden davon ein anderes Back-up-Ziel auszuwählen. Daneben können Unternehmen auch Optionen wie die Datenreplikation nutzen, deren Implementierung ist jedoch mit höheren Kosten verbunden.
Back-ups extern sichern: Nutzen Unternehmen einen einzigen Virtualisierungs-Host in Verbindung mit VMs, die auf einem Direct Attached Storage installiert sind, ist die Ausführung der Backup-Software in einer dedizierten virtuellen Maschine ein einfacher Weg, um Sicherungen zu erstellen. Werden diese lediglich auf eine virtuelle Festplatte auf demselben von den VMs verwendeten physischen Speicher geschrieben, können sie bei einem Ausfall verloren gehen. Vermeiden lässt sich dies, indem die Back-ups zusätzlich auf einem separaten Gerät, zum Beispiel einem externen NAS, einem nicht mehr genutzten älteren Server oder auf Band gespeichert werden.
Hypervisor-Tools installieren: In Hypervisoren integrierte Tools stellen die Kompatibilität zwischen der virtuellen Hardware und dem Gastbetriebssystem sicher, können sich jedoch auch auf Sicherungsprozesse auswirken. Beim Back-up eines Microsoft-Hyper-V-Servers auf Host-Ebene werden auf dem physischen Rechner liegende virtuelle Maschinen beispielsweise mitgesichert und bleiben auch während dieses Prozesses weiterhin verfügbar. Freilich nur dann, wenn die als Integrationsdienste bezeichneten Treiber auf dem Gastbetriebssystem aktiviert sind und die VM im Betriebszustand ist. Ansonsten wird sie, während ein Snapshot erzeugt wird, kurzfristig in einen gespeicherten Zustand versetzt und ist zeitweilig nicht erreichbar.
Snapshots vorsichtig einsetzen: Statt Daten zu kopieren, wird bei einem Hypervisor-Snapshot eine differenzierende virtuelle Festplatte (VHD) angelegt, in die fortan alle neuen Daten geschrieben werden. Diese steht in einer Vater-Sohn-Beziehung zur übergeordneten originalen VHD, die vom Zeitpunkt der Snapshot-Erzeugung an schreibgeschützt ist und dadurch unverändert erhalten bleibt. Dies ermöglicht es, VMs auf einen früheren Zeitpunkt zurückzusetzen und kann in verschiedenen Fällen recht hilfreich sein, beispielsweise um den Server vor Fehlern abzusichern, die bei Konfigurationsänderungen wie dem Aufspielen von Service-Packs auftreten können.
Für den Schutz von Anwendungsservern, auf denen in virtuellen Maschinen Applikationen oder Datenbanken laufen, sind Snapshot-Techniken indes weniger geeignet. Dies liegt daran, dass während der Erstellung noch Daten im Memory ausgelagert oder Transaktionen nicht vollständig durchgeführt sein können. Das kann zu inkonsistenten Abbildern führen, die bei der Wiederherstellung Anwendungskorruptionen erzeugen.
Letztlich kann die häufige Erstellung von Snapshots einer VM die Leistung der virtuellen Maschine herabsetzen. Die Ursache dafür ist, dass jedes Mal eine neue VHD angelegt und die vorherige dadurch in einen schreibgeschützten Zustand versetzt wird. Das heißt, je mehr Snapshots erzeugt werden, desto höher ist die Zahl der differenzierenden, aufeinander aufbauenden virtuellen Festplatten. Jede davon hält nur das zwischen der Original-VM und dem aktuellen Stand der virtuellen Maschine bestehende Delta fest. Das kann zu einer hohen Lesezeit führen, bis von einer virtuellen Maschine angeforderte Daten aufgefunden werden.
Hypervisor-Limitierungen kennen: Jeder Hypervisor weist bestimmte Eigenheiten auf, die bei der Festlegung von Back-up-Strategien berücksichtigt werden müssen. In Microsoft-Hyper-V-Umgebungen lassen sich auf iSCSI-Storage abgelegte VHDs bei einem Back-up auf Host-Ebene nur dann sichern, wenn der Speicher direkt an das Management-Betriebssystem des Hosts angebunden ist. Andernfalls unterstützt der VSS-Writer diesen Prozess nicht.
Gleiches gilt, wenn virtuelle Maschinen direkt über sogenannte Pass-Through-Disks an physikalische Festplatten angeschlossen sind. In beiden Fällen lassen sich die auf den Datenträgern gespeicherten Informationen nur durch Back-ups auf Gastebene schützen.
Ein dritter Sonderfall ist der, dass VMs, die dynamische Laufwerke im Gastbetriebssystem enthalten, nicht online gesichert werden können. Vielmehr werden sie während der Erstellung eines VSS-Snapshots in einen gespeicherten Zustand versetzt und sind damit kurzfristig nicht verfügbar.
Instant Recovery nutzen: Eine weitere Empfehlung ist, Back-up-Software einzusetzen, mit der sich virtuelle Maschinen nach einem IT-Ausfall sofort wieder in einen betriebsbereiten Zustand versetzen lassen. Möglich macht dies Instant Recovery oder Recovery-in-Place. Diese Funktion ist inzwischen Bestandteil vieler Lösungen und bietet gegenüber herkömmlichen Verfahren den Vorteil, dass sich Daten im Gegensatz zu traditionellen Wiederherstellungsverfahren ohne größere Wartezeit wiederherstellen lassen.
Bei dieser Methode wird auf in kurzen Zeitintervallen erstellte VM-Kopien zurückgegriffen, die typischerweise auf einem festplattenbasierten Back-up-System gespeichert sind. Bei den abhängig von den gesetzten Vorgaben in kurzen Abständen erstellten Sicherungen werden nur die seit dem letzten Lauf erfassten veränderten Blöcke einer VHD an das Ziel übertragen. Diese werden zu Hilfe genommen, um die ursprüngliche VM auf einem anderen Host-Server zu rekonstruieren. Damit sie während des Wiederherstellungsprozesse unverändert bleibt, wird temporär mit der Kopie auf dem Backup-Speicher gearbeitet auf die sämtliche währenddessen erfolgenden Schreibvorgänge weitergeleitet werden.
Nach Abschluss der Sicherung in der Produktionsumgebung werden die während der Durchführung des Backups auf die differenzielle Festplatte geschriebenen Inhalte kopiert. Sobald sich die VM dort wieder verwenden lässt, wird der Nutzerverkehr per Live-Migration oder ähnlichen Mechanismen zurückgeleitet, der Snapshot vom Back-up-Server entfernt und die Sicherungsläufe lassen sich normal fortsetzen.
Warnmeldungen und Benachrichtigungen konfigurieren: Wenngleich es für ohnehin oft zeitlich überlastete Administratoren eine lästige Aufgabe sein mag, zahlt sich die Einrichtung von Warnmeldungen und Benachrichtigungen langfristig aus. Dies befreit sie davon, stets die Konsole des Back-up-Servers im Blick zu behalten, um möglicherweise auftretende Sicherungsprobleme rechtzeitig zu erkennen. Vielmehr werden die Administratoren direkt informiert und können aktiv handeln.
Testen und Verifizieren: Um sicherzustellen, dass Back-ups einwandfrei laufen und die Datenintegrität gewahrt bleibt, führt kein Weg an Tests und Verifizierungen vorbei. Zwar mag es auf den ersten Blick so scheinen, dass es sich dabei um das Gleiche handelt, doch tatsächlich sind es zwei Paar Schuhe. Bei der Verifizierung wird lediglich bestätigt, dass die Daten auf den Back-up-Medien denen auf dem gesicherten Server entsprechen. Dass sich erstellte Back-ups auch im Krisenfall nutzen lassen, steht auf einem anderen Blatt.
Werden zum Booten eines Servers erforderliche Systemdateien beispielsweise versehentlich gelöscht, läuft dieser zwar erst einmal wie gehabt weiter. In einem darauffolgend erstellten Back-up wären sie dagegen nicht mehr enthalten. Insofern ließe sich das System im Wiederherstellungsfall nicht mehr starten, das würde sich aber trotz erfolgter Verifizierung erst dann zeigen. Insofern sind Tests unumgänglich, da sie Administratoren ermöglichen, solche Probleme vorab aktiv aufzuspüren und frühzeitig zu beheben. Ebenso lässt sich in diesem Zuge ermitteln, ob sich physische Server im Krisenfall in Gesamtheit wiederherstellen lassen, wie es um die Granularität von Restores bestellt ist und wie sich die Durchführung von Back-ups auf Anwendungs- oder VM-Ebene verhält.
Sicherheit per Verschlüsselung: Auch Back-ups können in die falschen Hände gelangen. Um dem unberechtigten Zugriff auf unternehmensentscheidende Daten einen Riegel vorzuschieben, sollten Sicherungsmedien daher verschlüsselt, die erstellten Encryption Keys exportiert und möglichst an einem externen, sicheren Standort aufbewahrt werden. Dies gewährleistet, dass sich Back-ups auch dann wiederherstellen lassen, wenn ein Standort von einem Katastrophenfall betroffen ist.
Eingehende Evaluierung: Backup-Produkte für die Sicherung virtueller Maschinen gibt es viele. Daher muss geprüft werden, inwiefern die verfügbaren Lösungen die individuellen, an den Datenschutz gestellten Anforderungen, erfüllen. Unter anderem sollte dabei näher betrachtet werden, ob
Herausforderungen meistern
Die Sicherung virtueller Server birgt zweifelsohne nach wie vor einige Herausforderungen. Diese lassen sich jedoch meistern, wenn bekannt ist, wie sich virtualisierte Infrastrukturen auf den Back-up-Prozess auswirken, die Disaster-Recovery-Planung nicht zu kurz kommt und bei der Implementierung der Sicherheitslösung darüber hinaus bewährte Praktiken angewandt werden. Dies stellt sicher, dass sich virtuelle gleichermaßen wie vormals physikalische Umgebungen konsistent schützen lassen.
Jörn Koch ist Channel Sales Manager Central Europe bei Altaro Software