Es muss nicht unbedingt ein zerstörerischer Tornado sein, der komplette Firmengebäude oder Rechenzentren dem Erdboden gleichmacht. Weitaus häufiger sind technische Probleme an der Hardware, menschliche Bedienungsfehler oder auch gezielte Angriffe durch Hacker oder illoyale Mitarbeiter die Ursache dafür, dass der Zugriff auf wichtige Unternehmensdaten nicht mehr möglich ist. Mit dem Datenverlust ist ebenso ein erheblicher Kostenverlust verbunden, denn jede Stunde Ausfallzeit kostet viel Geld. Daher ist für Unternehmen eine Disaster-Recovery-Strategie unverzichtbar.Aberdeen Research hat 2011 im Rahmen einer Studie ermittelt, dass in Unternehmen und Behörden mit unzureichenden Disaster-Recovery-Maßnahmen im Schnitt 3,5 Mal pro Jahr ein solches "Desaster" auftritt. Die Ausfallzeiten von IT-Systemen summieren sich im Schnitt auf 29,4 Stunden jährlich. Dies entspricht einem finanziellen Schaden von mehr als 2,1 Millionen Euro. Im Vergleich dazu verzeichnen Anwender mit optimierten Vorsorgemaßnahmen weniger als einen Vorfall pro Jahr. Dieser führt zu Stillstandzeiten von 72 Minuten und einem Schaden von nur 53.000 Euro. Mittlerweile sind die durchschnittlichen Kosten durch Systemausfälle und Datenverluste deutlich gestiegen: Im Jahr 2012 betrugen sie laut Aberdeen Research rund 100.000 Euro pro Stunde. Anforderungen an die Hardware Allein diese Zahlen belegen, wie wichtig eine tragfähige Disaster-Recovery-Strategie und deren effiziente Umsetzung ist. Welche Hardware in Disaster-Recovery-Umgebungen zum Einsatz kommen soll, hängt von der Größe des Unternehmens, der Zahl der Server und Clients sowie dem Umfang der Datenbestände ab, die zu sichern sind. Die Bandbreite der Lösungen reicht dabei vom Backup auf NAS-Systemen (Network Attached Storage) über dedizierte Backup-Server und SAN (Storage Area Network) bis zum Einsatz von Standby-Servern und kompletten Ausfallrechenzentren. Wichtig ist jedoch, dass eine Backup- und Disaster-Recovery-Software wie beispielsweise die Lösungen von Storagecraft eine möglichst große Zahl von Storage- und Archivierungstechniken unterstützt. In einer typischen Windows-Umgebung mit Servern unter Windows Server 2008 R2 oder Windows Server 2012 sollten dabei die Server-Systeme zum Beispiel über ein leistungsfähiges System-Volume mit bis zu 100 GByte Speicherplatz verfügen. Dafür eignen sich am besten schnelle SATA-Platten (7.200 Umdrehungen pro Minute) oder SAS-Harddisks (Serial Attached SCSI). Da die Preise für Flash-basierende Solid State Drives (SSDs) mit 128 GByte mittlerweile deutlich gesunken sind, kommen auch diese in Betracht. Planung von Backup- und Disaster-Recovery-Maßnahmen Auch bei der Konfiguration einer Disaster-Recovery-Software sind mehrere Punkte zu berücksichtigen. Ein erster Tipp: Datensicherungen sollten nie zur vollen Stunde terminiert sein, sondern einige Minuten später. Der Grund ist, dass beispielsweise in Windows Server 2008 R2 etwa 25 aktive Aufgaben vorhanden sind, die immer zu einer vollen Stunde starten - etwa um 7 Uhr. In diesem Fall ist es besser, einen Backup-Lauf für 7:13 Uhr anzusetzen. Das Gleiche gilt für andere automatische Prozesse. So sieht Windows Server 2008 und höher an jedem Mittwoch um 1:00 Uhr eine regelmäßige Defragmentierung der Festplatten vor, um die Systemleistung aufrechtzuerhalten. Damit Backup-Dateien nicht zu voluminös geraten, sollte der Administrator die Daten auf dem Server analysieren. Kein Sicherungsbedarf besteht beispielsweise bei Antivirensoftware oder den Windows Server Update Services (WSUS). Beide Komponenten sind für eine Wiederherstellung nicht erforderlich. Daher sollten sie als benutzerdefinierte Installationen in eine separate Partition ausgelagert sein, die nur ein einziges Mal gesichert wird. Disaster Recovery ist nicht nur für größere Unternehmen überlebenswichtig, sondern auch für kleine und mittelständische Firmen mit bis zu 500 Mitarbeitern. Um eine Disaster-Recovery-Appliance für KMU zu implementieren, kommen folgende Ansätze in Betracht: erstens die Nutzung von vorhandenen NAS-Systemen, zweitens der Einsatz von Backup-Workstations und drittens die Implementierung eines speziellen Backup-Servers. Lösungen für kleinere und mittlere Unternehmen Generell ist vom Einsatz von NAS-Systemen in einem Disaster-Recovery-Szenario abzuraten. Der Grund besteht darin, dass das Sichern von Daten, wie es beispielsweise mit "Shadowcontrol Imagemanager" von Storagecraft erfolgt, in diesem Fall über das LAN abläuft. Der zusätzliche Datenverkehr belastet Letzteres dabei stark. Als Alternative bietet sich der Einsatz von vorhandenen Arbeitsplatzrechnern als Backup- und Disaster-Recovery-Appliance an. Die Workstation muss in diesem Fall über ein 64-Bit-Betriebssystem verfügen, das 20 Netzwerkverbindungen unterstützt, etwa Windows 7 Professional oder Windows 8 Enterprise. Zudem sind unter anderem mindestens 16 GByte RAM, ein Quad-Core-Prozessor, ein RAID-Controller mit eigener CPU sowie ein BIOS erforderlich, das die Virtualisierungstechniken Intel VT-x oder AMD-V unterstützt. Backup und Disaster Recovery in größeren Unternehmen Eine bestmögliche Lösung für Backup, Disaster Recovery und Datenreplizierung basiert auf spezialisierten Servern. Dies können durchaus Systeme sein, die nicht mehr für High-Performance-Aufgaben tauglich sind oder ausgemustert wurden. Diese Systeme sollten mit mindestens 32 GByte RAM bestückt sein und die 64-Bit-Version von Windows Server 2008 R2 oder Windows Server 2012 nutzen. Damit erhält der Anwender eine robuste Lösung, die eine Verwaltung von Backup-Image-Dateien, das Replizieren von Daten und das Booten von Image-Dateien in einer virtualisierten Umgebung erlaubt - wie beispielsweise bei der Virtualboot-Technik von Storagecraft. Die Belastung des LANs, wie sie bei NAS-Systemen auftritt, hält sich dabei in Grenzen. In Unternehmensnetzen mit 20 bis 100 Servern ist es empfehlenswert, einen Single-Image-Repository-Server (Disaster-Recovery-Server) einzusetzen, in größeren Umgebungen mit beispielsweise 180 Servern empfehlen sich zwei entsprechende Rechner. Als Betriebssysteme kommen wiederum Windows Server 2012 und 2008 R2 in Betracht. Weitere Anforderungen an den Server sind in diesem Fall 64 GByte RAM oder mehr, mindestens zwei Quad-Core-CPUs, Support für VT-x der AMD-V, ein Hardware-RAID-Controller, der mehrere Arrays unterstützt (RAID 1 und RAID 0 oder JBOD), zwei Hochleistungs-SAS-Festplatten mit 100 bis 200 GByte für das Betriebssystem in einer RAID-1-Konfiguration sowie eine dritte SAS-Platte mit mindestens 200 GByte am zweiten Storage-Array. Letzteres kommt im im gegebenen Lösungsbeispiel für Paging Files und die Virtualisierungslösung Oracle Virtualbox zum Einsatz. In Virtualbox lassen sich mithilfe von Virtualboot Backup-Images booten. Das Image Repository, das die Backup-Images aufnimmt, lässt sich in einem SAN auf der Basis von Fibre Channel (FC) oder iSCSI anlegen. Auch der Einsatz von Direct Attached Storage (DAS) ist möglich, wenn das Storage-System mittels eines SAS-Hostbus-Adapters direkt an den Server angeschlossen ist. Ein Schritt weiter: Business Continuity Backup und Disaster Recovery bedeuten kein "Hexenwerk" - vorausgesetzt, der Anwender nutzt eine leicht zu bedienende und leistungsstarke Lösung, die sich zudem an wechselnde Anforderungen anpassen lässt: Die vorhandene Backup- und Disaster-Recovery-Lösung sollte sich dann weiterhin verwenden lassen. Dies spart Zeit und Geld - im Vergleich zu den Kosten für die Neuanschaffung einer Software, die Schulung der IT-Fachleute und den Aufwand, den die Neuinstallation einer Lösung mit sich bringt. Empfehlenswert ist die Ergänzung der Disaster-Recovery-Lösung um eine Software, mit der sich Backup-Images effizient verwalten, testen und replizieren lassen. Business-Continuity-Lösungen aus einer Hand ermöglichen dabei eine bestmögliche Datensicherheit.