Statement

Hybrid-Backup - der Status quo

26. November 2015, 16:00 Uhr | Matthias Frühauf, Sales Engineer Manager, Central EMEA bei Veeam Software

Die Grundidee eines Backups ist simpel: Daten werden kopiert und sicher aufbewahrt, um sie im Bedarfsfall noch einmal zur Hand zu haben. Wie nützlich das Backup jedoch wirklich ist, hängt von einer Reihe von Faktoren ab. Zum einen muss die Sicherungskopie physisch verfügbar sein. Zum anderen muss sichergestellt werden, dass die Sicherung innerhalb der geforderten Zeit wiederhergestellt werden kann und vor allem auch lauffähig ist. Um ein ideales RTPO („Recovery Time and Point Objective“, Wiederherstellungszeit und Wiederherstellungspunkt) zu erreichen, lohnt es sich, mehrere Ansätze zu einem hybriden Backup-Konzept zu verknüpfen.

Matthias Frühauf, Sales Engineer Manager, Central EMEA bei Veeam Software
Matthias Frühauf, Sales Engineer Manager, Central EMEA bei Veeam Software
© Veeam Software

Fällt ein Server aus, beeinträchtigt das oft ganze Services. Um das Always-on-Business zu gewährleisten, ist es wichtig, gesicherte Daten möglichst schnell wiederherzustellen. Das Mittel der Wahl für kritische Daten ist traditionell das Onsite-Backup auf schnellen Speichermedien wie Festplattensysteme. Damit lassen sich Ausfälle innerhalb von wenigen Minuten kompensieren. Der Vorteil: Was vor Ort aufbewahrt wird, ist im Notfall schnell zur Hand. Aber wenn es nicht nur sprichwörtlich, sondern auch tatsächlich brennt, ist möglicherweise auch die Sicherungskopie vor Ort betroffen. Gegen den Ausfall von Backups durch physische Schäden helfen Offsite-Sicherungen. Das kann eine Festplatte oder Tape im Banksafe sein, ein externes Rechenzentrum oder aber eine Cloud-Lösung. Die 3-2-1-Backup-Regel besagt, dass zu einem umfassenden Verfügbarkeitskonzept mindestens drei Datenkopien auf mindestens zwei unterschiedlichen Medien gespeichert werden, von denen eine extern aufbewahrt wird.

Egal wie schnell ein Backup im Notfall zur Verfügung steht, es muss auch aktuell sein. Regelmäßige Komplettsicherungen, die im besten Fall täglich erstellt werden, verursachen hohen Speicherbedarf und Zeitaufwand. Dadurch entsteht eine Lücke von mehreren Stunden, in denen Daten unwiederbringlich verloren gehen können. Abhilfe schafft hier inkrementelles Backup, bei dem kontinuierlich Änderungen gesichert werden. Dies gilt insbesondere für virtualisierte Anwendungen, bei denen Änderungen nicht mühsam auf Dateiebene ermittelt werden müssen, sondern auf Block-Ebene vom Hypervisor protokolliert werden. So gesicherte Daten ermöglichen im Zusammenspiel mit passenden Backup-Tools ein kurzes RTPO von 15 Minuten oder weniger. Bei ausreichender Bandbreite und mit Hilfe von modernen Technologien wie WAN-Beschleunigung und -Optimierung lässt sich dieser Echtzeit-Vorteil auch in einem Cloud-Modell realisieren.

Die Qualität der Backups ist ebenso ein oft vernachlässigter Faktor bei der Datensicherung. Der „Veeam Data Center Availability Report“, eine Umfrage unter IT-Entscheidungsträgern auf der ganzen Welt, hat gezeigt: Ein Sechstel aller Backups lässt sich nicht wiederherstellen. Eine automatische Prüfung der Wiederherstellbarkeit sollte daher Teil eines Verfügbarkeitskonzepts sein. Dass dies viel zu selten gemacht wird, liegt auch daran, dass nach wie vor traditionelle Lösungen im Einsatz sind, bei denen eine solche Prüfung ein weitestgehend manueller und entsprechend aufwändiger Prozess ist.

Aus unserer Sicht hält der Trend zur Virtualisierung weiter an und Unternehmen lösen ihre physischen Rechenzentren vermehrt durch virtuelle Maschinen ab. Dies bietet enorme Vorteile hinsichtlich Management und Skalierbarkeit, erfordert aber Tools, die auf virtuelle Umgebungen zugeschnitten sind. Wer seine IT-Strategie modernisieren will, sollte also das Thema Backup von vornherein mitdenken.

Backup-Lösungen werden künftig verstärkt hybride Cloud-Modelle einbeziehen. Die Kombination von Private-, Public- und Managed-Cloud bietet die Flexibilität, auf sich verändernde Geschäftsanforderungen zu reagieren. Sie lässt sich zudem auf individuelle Bedürfnisse zuschneiden. So können Nutzer kritische Daten und Systeme intern betreiben, weniger anspruchsvolle Arbeitslasten hingegen kostensparend auslagern. Unternehmen können so die Kosten für Bau und Betrieb eines externen Rechenzentrums vermeiden.

Damit der Backup-Traffic das Unternehmensnetzwerk nicht unnötig belastet, sollten Anwender auch darauf achten, Technologien einzusetzen, die mit Bandbreiten schonend umgehen. Um die Integrität der Daten zu gewährleisten, ist ebenso eine End-to-End-Verschlüsselung der Transportwege Pflicht. Beachten Unternehmen diese Faktoren, erhalten sie ein umfassendes Datensicherungskonzept, das die Verfügbarkeit aller Unternehmensdaten garantiert, und zwar jederzeit und zu vertretbaren Kosten.

Anbieter zum Thema

zu Matchmaker+

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu connect professional

Weitere Artikel zu Server, Datacenter

Matchmaker+