Die globale Ransomware-Attacke „WannaCry“ war ein mehr als deutlicher Warnschuss für alle Unternehmen, ihre Back-up-Systeme kritisch zu hinterfragen. Nicht selten stellt sich dabei heraus, dass konventionelle Lösungen für Back-up sowie Disaster Recovery nicht das halten, was sie versprechen. Meist sind Daten zu sehr an die zugrunde liegende Infrastruktur gekoppelt, da oft noch Methoden für das Datenmanagement eingesetzt werden, die 30 Jahre alt sind. Kurz gesagt: Daten sind zu immobil.
Mit Enterprise-Data as a Service, basierend auf der Virtualisierung von Datenkopien, hält nun ein neuer Ansatz Einzug. Im Prinzip wird dabei der bekannte Gedanke von Infrastructure as a Service auf die Welt der Daten übertragen. Daten werden so von der Infrastruktur wie dem Primärspeicher entkoppelt und werden so sofort – beispielsweise für Disaster Recovery – verfügbar. Egal wann, egal wo, egal was.
Da die virtualisierten Datenkopien in ihrem nativen Format zur Verfügung gestellt werden, stehen im Notfall Back-ups im Handumdrehen zur Verfügung. Bei Bedarf können die Daten auch maskiert werden, um dem Datenschutz Rechnung zu tragen. Der Zugriff auf die Kopien wird außerdem durch ein eingebautes Rollen- und Rechtekonzept gesteuert.
Oliver Lotz: Virtualisierung für das Back-up der Zukunft
Unternehmen sehen sich in ihrer Back-up- und Recovery-Strategie mit einer Vielzahl neuer Herausforderungen konfrontiert: Hybride Infrastrukturen, in denen IT in der Cloud und zugleich On-Premise betrieben wird, in allen Bereichen explodierende Datenmengen, wachsender Bedarf an Applikationsintegrationen und nicht zuletzt neue Cyber-Bedrohungen, die gezielt Back-up-Medien angreifen. Daher greifen klassische Datensicherungsstrategien in vielen Unternehmen nicht mehr.
Back-up-Lösungen müssen daher künftig im Rahmen eines zentralen Datenmanagements vor allem „Software Defined Data Protection“ bieten, also Datensicherung in virtualisierter Form, die unabhängig von bestimmten Speichermedien und in Cloud-Konzepte integriert ist. Zugleich müssen Daten künftig vor dem Back-up analysiert und kategorisiert werden, um entscheiden zu können, welcher Speicher für welche Anwendung der passende ist. Ergänzt durch ein zentrales Metadaten-Management wird sichergestellt, dass alle Daten – unabhängig vom Speicherort – nach Bedarf im Zugriff sind.