Datenrettung

Datenverlust im Rechenzentrum

5. Juli 2016, 10:48 Uhr | Autor: Michael Nuncic / Redaktion: Axel Pomper

Fortsetzung des Artikels von Teil 1

Neue Gefahren

Ein Problem der zunehmenden „Software-isierung“ im RZ wird allerdings übersehen oder verdrängt: Mit den neuen Datenstrukturen der SDS-Lösungen kommt es zu zusätzlichen Problemen bei Ausfällen oder Defekten. Egal, ob physische Festplatten-Ausfälle durch Verschleiß oder Datenverlust durch menschliches Versagen: Mit steigendem Einsatz dieser Speicher kommt sowohl für die Anwender als auch für professionelle Datenretter mehrKomplexität hinzu. Stellt man sich vor, dass innerhalb der SDS Software-Schicht mit ihrer Datenstruktur noch die virtuelle Datenschicht liegt, in der dann die eigentlichen Daten oder gar Datenbanken liegen, wird auch das ganze Ausmaß der Problematik klar. Hinzu kommt, dass eine Vielzahl von unterschiedlichen SDS-Datenstrukturen eingeführt wurden, die bislang noch keinen einheitlichen Standard haben. Das ganze Datenkonstrukt ähnelt in starker Weise dem Aufbau einer russischen Holzpuppe, einer Matroschka.

Auch bei dem zweiten Ansatz – der Hyper-Konvergenz –  ist der entscheidende Vorteil des Konzeptes auch gleichzeitig das größte Hemmnis für eine erfolgreiche Datenrettung. In einem konkreten Fall aus der Datenrettungspraxis hatte der Ausfall eines einzigen SSD-Speichers (als Systemcache genutzt) bei einem Virtual SAN den Ausfall des gesamten Systems und den Datenverlust vier großer virtueller Maschinen zur Folge. Nur mittels neu entwickelter Software-Werkzeuge war es überhaupt möglich, die Struktur und die Abhängigkeiten innerhalb der vSAN Datastores sowohl auslesen als auch zuordnen zu können.

Kein Rechenzentrum ist wirklich sicher

Dass der Betrieb der eingesetzten Systeme nicht mehr so leicht ist wie noch vor ein paar Jahren, und selbst Mitarbeiter großer Unternehmen ihre Probleme bekommen, zeigen nicht nur die Beispiele aus der Datenrettung, sondern auch sehr anschaulich die Vorkommnisse in den vergangenen Jahren in den Rechenzentren namhafter Cloud-Anbieter, wie Google oder den amerikanischen Amazon EC2 Web Services. In einem Fall waren es Bedienungsfehler an den eingesetzten Storages, die zu einem siebzigminütigen Ausfall der Suchmaschine oder von YouTube in Europa führten oder in einem anderen Fall durch einen Blitzeinschlag in Belgien gleich zahlreiche Daten komplett vernichtet wurden. Bei Amazon wurden 2011 ebenfalls zahlreiche Kundendaten vernichtet. Bis heute ist nicht ganz klar was den Schaden wirklich verursacht hatte. Die Beispiele zeigen jedoch, dass Datenverlust im Rechenzentrum – sei es on Premise oder eben in der Cloud nie ganz zu vermeiden ist.  

Fazit

Ob on Premise oder in der Cloud: Die obigen Beispiele aus der Praxis zeigen sehr deutlich, dass infolge der zunehmenden Komplexität der eingesetzten Systeme in den Rechenzentren viele Mitarbeiter in den meisten Fällen bei einem plötzlich auftretenden Datenverlust kaum in der Lage sind sich selbst zu helfen. Oft sind die eingebauten Recovery-Möglichkeiten der Systeme dann ebenfalls in Mitleidenschaft gezogen worden und daher nicht mehr funktionsfähig. Gepaart mit fehlendem Mitarbeiter-Knowhow kann eine „Do-it-yourself-Wiederherstellung“ dann im Endeffekt zur unwiederbringlichen Zerstörung sensibler Daten führen. Aus diesem Grund ist es immer sinnvoller bei sehr komplexen Systemen lieber auf Nummer Sicher zu gehen und auf das Wissen eines spezialisierten Datenrettungsdienstleisters zu vertrauen, anstatt das Risiko einzugehen und sensible und geschäftskritische Daten dauerhaft zu vernichten.

Michael Nuncic ist Marketing Communications/Program Manager bei Kroll Ontrack

Anbieter zum Thema

zu Matchmaker+

  1. Datenverlust im Rechenzentrum
  2. Neue Gefahren
  3. Ein paar gutgemeinte Tipps

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu connect professional

Weitere Artikel zu Viren-/Malware-Schutz

Weitere Artikel zu Server, Datacenter

Weitere Artikel zu Sicherheit

Matchmaker+