Viele Jahre lang akzeptierte man in der IT-Branche die Gleichsetzung von fern gespeicherten Datenkopien mit Disaster-Recovery. Auch die meisten SAN-Hersteller stellten ihre Angebot hierauf ab – entweder im System integriert oder durch Remote-Replikation. Doch jeder Anwender, der nach einem Systemausfall mit diesen Kopien den Betrieb wieder herstellen möchte, weiß, dass diese Behauptung nur eine Worthülse ist.
Üblicherweise bewerben Anbieter Replikationsfunktionen als Business-Continuity oder Disaster-Recovery. Unternehmen brauchen aber mehr als nur den Zugriff auf kopierte Daten. Ohne die Verfügbarkeit von Anwendungen können Unternehmen die replizierten Daten nicht verwenden und somit auch nicht ihre anspruchsvollen Leistungsverträge aufrechterhalten und erfüllen.
Die meisten Verantwortlichen in Datacentern haben dieses „unechte“ Disaster-Recovery-Paradigma für sich angenommen, da es einfach keine Alternative gibt. Tatsächlich ist Disaster-Recovery eine derart komplexe Aufgabe, dass nur wenige Speicher- und Data-Protection-Lösungen diese bewältigen können. Doch Dank der serviceorientierten Data-Protection wird sich dies zukünftig ändern.
Echtes Disaster-Recovery erfordert Fernreplikation und intelligentes Erkennen aller IT-Service-Komponenten, einschließlich Anwendungen, Betriebssysteme, Server, Netzwerke und Speicher. Unternehmen müssen einen Weg finden, jeden Service in seiner Gesamtheit wiederherzustellen und sie sollten sich nicht mit weniger zufrieden geben. Die komplexe Natur dieser umfangreichen Aufgabe erfordert die Wiederherstellung jeder Komponente des Services in einer bestimmten Reihenfolge und in einer angemessenen Zeit. Dieser Prozess erfordert zuverlässige Automatismen in einer IT-Umgebung, da Mitarbeiter dafür oft nicht die Zeit und Ressourcen haben.