Die Fähigkeit, Dateien, Ordner, Anwendungen und ganze Server wiederherzustellen, ist das ultimative Ziel des Datenschutzes. In diesem Sinne gibt es viele Checks, um zu überprüfen, dass alle Quelldaten korrekt in der Cloud Data Management (CDM)-Fabrik gespeichert wurden.
Dies schließt CRCs (Cyclic Redundancy Checks) mit ein, um externe Eingriffe zu vermeiden, Over-the-Wire-Verschlüsselung, um Manipulationen zu verhindern, und die Verwendung von Löschcodes, um Daten über Hardwarekomponenten hinweg zu platzieren, und einzelne Fehlerpunkte zu vermeiden.
Darüber hinaus ist es immer eine gute Idee, zu überprüfen, ob eine Sicherung auch wiederhergestellt werden kann. Die beste Methode hierzu besteht darin, probeweise eine Wiederherstellung der Daten durchzuführen. Nur so ist sichergestellt, dass alles, was erforderlich ist – seien es Dateien, Ordner, Anwendungen oder ganze Server – im Ernstfall für die Benutzer wieder verfügbar gemacht werden kann. Genau dies war aber bislang recht aufwändig, da mit großen Datenmengen gearbeitet werden musste. Lösungen, die solche Workflows anbieten, sind oftmals extrem langsam. Zudem arbeiten sie in einer geschlossenen Orchestrierung, die eng mit der Lösung selbst verbunden ist. Vorteilhafter wäre es, die Backup-Validierung mit den vorhandenen Konfigurationsmanagement-Engines durchführen zu können.
Mit modernen Lösungen für Cloud Data Management ist diese Validierung einfach. Zeitgemäße CDM Fabrics werden von Grund auf mit Blick auf Skalierbarkeit für Cloud und lokale Umgebungen entwickelt. Hierzu steht im Idealfall eine leistungsstarke Suite von RESTful-APIs zur Verfügung, die standardmäßig von einer HTML5-Schnittstelle verwendet wird. Unternehmen können auf solch eine Suite ohne zusätzliche Kosten und ohne Lizenzierung zugreifen. Sie können die APIs auf einfache Weise nutzen, um Backup-Validierungs-Workflows mit nur wenigen Schritten zu einer vorhandenen Orchestrierungs-Engine hinzuzufügen.
Ein Beispiel hierfür ist ein Workflow, der mit PowerShell geschrieben wurde, um es in ein Test-Framework namens Pester einzubinden. Dieses Framework wird auch verwendet, andere Komponenten der Infrastruktur zu testen, wie die vSphere-Konfiguration mit Vester, um nicht das Rad – mit einer weiteren Orchestrierungs-Engine – neu erfinden zu müssen.Wie funktioniert dies? Der folgende Screenshot zeigt die Ergebnisse eines Sandbox-Tests auf einer virtuellen SQL-Server-Maschine.
Pester wird gebeten, zehn unabhängige Tests durchzuführen. Nachdem alle Tests abgeschlossen sind, einschließlich der Erstellung einer Live-Mount-VM, der Migration des Netzwerks und des Anwendungstests, werden die Ergebnisse angezeigt. Anschließend wird ein API-Aufruf an die Cloud Data Management-Plattform gesendet, den Live Mount zu verwerfen.
In diesem Fall wurde in 62 Sekunden ein End-to-End-Test für ein Backup ohne menschliches Eingreifen durchgeführt. Zusätzlich werden alle Details aus dem Test als JSON-String ausgegeben, der von einem Dashboard-Display oder einem Back-End-System aufgenommen werden kann, das für die Überwachung, Protokollierung oder Alarmierung auf der Grundlage des Datenflusses ausgelegt ist.
Mit einer modernen Plattform für Cloud Data Management haben Unternehmen die Möglichkeit, dynamische und modulare Tests einfach zu integrieren, um sicherzustellen, dass ihre Datenschutzinvestitionen in der Lage sind, alles wiederherzustellen, was sie für wichtig halten. Dies ist möglich mit einer modernen Orchestrierungs-Engine, zeitgemäßen Konfigurations-Management-Tools und Überwachungs- und Alarmierungssystemen. Die Möglichkeit, diese Fähigkeiten für Anwendungen, Operationen oder Automatisierungsteams bereitzustellen und in Sekundenschnelle zu wissen, ob die gesicherten Daten wirklich verfügbar sind, ist für viele Unternehmen – gerade angesichts zunehmender Attacken durch Ransomware – interessant.
Roland Stritt ist Sales Director EMEA bei Rubrik