Weit verbreitet ist immer noch die Praxis, Back-up-Instanzen als Archiv zu betrachten. Diese Strategie ist aus mehreren Gründen zu hinterfragen – auch hinsichtlich der EU-DSGVO:
Aufblähung des Back-ups: Mit den stark ansteigenden Datenmengen werden Zeit und Speicherplatz für Back-ups immer größer. Je nach verwendeter Software hat das auch Einfluss auf die Kosten durch Lizenzen; mehr Daten, höhere Kosten.
Unauffindbarkeit einzelner Datensätze: Je umfangreicher die Back-ups werden, desto schwieriger ist es, die Speicherorte einzelner Datensätze exakt zu lokalisieren und diese bei Bedarf zu löschen. Inkrementelle Back-ups bauen aufeinander auf und sind üblicherweise über mehrere Datenträger verteilt. Full Back-ups sind in den seltensten Fällen als Flat File angelegt, sondern als komplettes Set gespeichert – das sich je nach Größe ebenfalls über mehrere Datenträger erstreckt. Dies steht den Rechten auf Auskunft und Löschung entgegen, ebenso den Privacy-Grundsätzen.
Unflexible und unsichere Technologien: Back-ups basieren meist auf einer Kombination aus einem NAS und einem Tape-Speicher. Typische (günstige) NAS-Systeme skalieren relativ schlecht. Der zwingende Einsatz von Datenträgern aus identischer Serie erhöht das Risiko für korrelierte Ausfälle. Bit Rot und Unrecoverable Read Errors (URE) können einen Restore unmöglich machen. Zudem sind Rebuild-Zeiten bei heutzutage üblichen Festplattenkapazitäten zunehmend lang und systembelastend. Tape-Speicher skalieren zwar „unendlich“, funktionieren jedoch systembedingt mit langen Zugriffszeiten rein linear. Moderne Recovery-Methoden (bei Veeam zum Beispiel InstantRecovery) sind dabei nicht möglich. Tapes müssen regelmäßig vollständig überprüft beziehungsweise umkopiert werden, um einen schleichenden Datenverlust vorzubeugen, der zwangsweise zu scheiternden Restores führt. Es liegt keine Redundanz vor, es sei denn, es werden mehrere Kopien angefertigt.
Aus diesen Gründen wird schon seit längerem empfohlen, Produktiv- und Archivdaten möglichst früh zu trennen und für die Sicherung Speichersysteme mit integrierter Datensicherung zu verwenden, wie zu Beispiel Gartner im Report „How to Cut Data Protection Costs for Disk-Based File Archives, 19. September 2016“ ausführt.
Entscheidend sind dabei – entsprechend den obigen Ausführungen – folgende Kriterien:
Verkürzung des Back-ups auf ein Minimum, was Aufwand und Kosten spart. Das Back-up selbst sollte sowohl schnellen, ständig verfügbaren Online-Speicher als auch kostengünstige, offline-fähige Medien unterstützen.
Möglichst viele Daten frühzeitig in ein jederzeit skalierbares File-basiertes Archiv ablegen, was die Auffindbarkeit von Daten und die Möglichkeit, einzelne Datensätze zu löschen, vereinfacht.
Flexible, moderne Technologien, die über genügend interne Sicherheitsreserven verfügen. Eine Replikation an einen zweiten Standort sollte zur Absicherung gegen Komplettausfall und Verlust leicht möglich sein.
Zusätzlich sollte das Archivsystem über eine Möglichkeit verfügen, als revisionssicherer Speicher Daten mit Aufbewahrungsfristen zu versehen und gegen vorzeitiges Löschen sowie Manipulation wirkungsvoll zu schützen, etwa durch WORM-Versiegelung. Die Zertifizierung sollte möglichst ohne Einschränkungen und Hintertüren gelten und auch das Löschen von Daten enthalten.
Idealerweise stehen alle Anforderungen innerhalb eines einzigen Systems zur Verfügung, das flexible Technologien kombinieren kann, um die unterschiedlichen Vorgaben zu erfüllen. Die Auswahl zwischen schnellen Flash- und kostengünstigen Festplattenspeichern, die Konfiguration als NAS oder VTL, einstellbare Sicherheit jenseits von RAID, und die Möglichkeit der Offline-Lagerung und des Transports einzelner Datenträger, sowie die Ausstattung der langlebigen Infrastruktur mit langfristigen Wartungsverträgen sind dabei zu berücksichtigen.