Diese physischen Sicherheitsfaktoren von Rechenzentren entsprechen den Sicherheitsstandards von spezialisierten Colocation-Providern, die die kritische IT-Infrastruktur von Unternehmen, Netzwerkanbietern und Public Cloud Providern beherbergen. Dabei wird jedoch nicht jedes Anwenderunternehmen diese Maßnahmen für all seine Standorte in Gänze implementieren können und wollen. In jedem Fall gilt allerdings: Der physische Schutz des Rechenzentrums hat direkten Einfluss auf die Sicherheit der dort gespeicherten Daten. Selbst wenn Standorte vermeintlich weniger schutzbedürftige, lokale Daten beherbergen, benötigen sie dasselbe Schutzniveau wie alle anderen. Denn: Cyberkriminelle können sich auch von solchen Standorten Zugang zum Netzwerk verschaffen und somit eine Bedrohung für die gesamte Integrität der Netz- und IT-Infrastruktur schaffen.
Dabei müssen Unternehmen kritisch analysieren, welche Maßnahmen möglich und notwendig sind, und, ob externes Wissen oder Dienste hilfreich sein können. So lassen sich die unterschiedlichen Standorte individuell nach ihrem Bedarf an zusätzlichen Maßnahmen bewerten oder die Zentralisierung an stärker gesicherte Standorte evaluieren. Sensible und schützenswerte Daten werden zudem auf mehrere Standorte verteilt, um etwaigem Datenverlust entgegenzutreten.
Drei Ebenen der Datensicherheit
Die sichere Datenaufbewahrung und -verwaltung ist vorrangig eine Frage der Geografie und der Technologie. So beugt eine Speicherung auf lokal gespiegelten Festplatten dem Verlust von Daten durch Hardwarefehler vor, löst aber nicht die Herausforderungen, die sich aus dem Wegfall eines gesamten Rechenzentrumsstandortes aufgrund eines Unfalls oder Brandes ergeben. Nicht umsonst rät deshalb das Bundesamt für Sicherheit in der Informationstechnik (BSI) zu Geo-redundanz für einen hochverfügbaren IT-Betrieb. Dabei müssen Unternehmen jedoch immer Kosten und Nutzen abwägen und hinterfragen, welche Anforderungen sie an die Hochverfügbarkeit stellen. Der Nutzen lässt sich in diesem Fall daran festmachen, dass Ausfallzeiten in der Produktion oder auch ein Gesamtstillstands des Unternehmens vermieden werden.
Solche Vorüberlegungen müssen Unternehmen anstellen, um akzeptable Ausfall- und Wiederanlaufzeiten für IT-Umgebungen zu definieren. Diese haben wiederum direkten Einfluss auf die implementierten Back-up-, Business-Continuity- oder Hochverfügbarkeitskonzepte, die hierfür eingesetzte Technologie sowie die Standortauswahl.
Eine Frage der Distanz
Unternehmen, die sich nicht nur gegen den Ausfall ihres IT-Equipments, sondern auch gegen umfassendere Beeinträchtigungen absichern wollen, stellt sich somit die Frage nach einem zweiten Rechenzentrumsstandort. Egal, ob das Back-up im Fehlerfall außer Haus aufbewahrt oder Hochverfügbarkeit mithilfe gespiegelter Systeme realisiert werden soll – beide Szenarien benötigen die räumliche Trennung sowohl der Daten als auch des IT-Equipments. Das schützt Unternehmensdaten auch gegen Brände, Wasserschäden oder sonstige Einflüsse aus der Umwelt.
Frühere Empfehlungen für einen hochverfügbaren IT-Betrieb, wie die des BSI, rieten zu acht bis zwölf Kilometern Distanz zwischen zwei Rechenzentren. Der Vorteil ist, dass dadurch synchrone Active-Active-Spiegelungen möglich sind und sich die Netzwerkkosten im Rahmen halten.
Für Szenarien, wie einen großflächigen Stromausfall, eine Überschwemmung oder einen Chemieunfall, stellte sich diese Distanz jedoch als deutlich zu knapp bemessen heraus. So veröffentlichte das BSI 2018 die Empfehlung, Rechenzentren im Abstand von 200 Kilometern zu betreiben. Diese Distanz stellt einen hochverfügbaren IT-Betrieb auch unter den widrigsten lokalen Rahmenbedingungen sicher. Eine Konsequenz der großen räumlichen Distanz ist jedoch eine erhöhte Signallaufzeit, die nur noch Active-Passive-Implementierungen und damit keine Synchronität zwischen den beiden parallel betriebenen Systemen erlaubt.