Auch bei Speichersystemen ist die Redundanz der internen Komponenten ein wichtiger Faktor für eine hohe Ausfallsicherheit. Hierzu zählen insbesondere die Storage-Controller für die Ansteuerung der Laufwerke sowie die Netzwerkkarten für die Anbindung an LAN und SAN. Bei traditionellen Storage-Arrays waren die RAID-Controller viele Jahre ein zentraler Baustein, der mit Hilfe von Paritätsinformationen die Sicherheit der gespeicherten Daten gewährleistete. Für neue Techniken wie NVMe entwickeln die Hersteller ihre RAID-Lösungen weiter und bieten zum Beispiel ein RAID-on-CPU für NVMe-SSDs an, das ohne dedizierte RAID-Controller auskommt.Bei hochverfügbaren Lösungen greifen die Server normalerweise über ein FC-SAN oder per iSCSI über das LAN auf die Speichersysteme zu.
Um auch beim Ausfall eines kompletten Standorts einen unterbrechungsfreien Zugriff auf die Daten zu gewährleisten, müssen die Storage-Arrays über zwei RZ-Standorte hinweg gespiegelt sein. Bis zu etwa zehn Kilometer Entfernung ist oft eine synchrone Spiegelung in Verwendung. Bei größeren Entfernungen kann ein asynchroner Spiegel oder eine asynchrone Replikation in Benutzung sein. Eine zeitversetzte Replikation lässt sich in vielen Fällen kostengünstiger implementieren als eine Spiegelung. Zudem ist es meist möglich, die Daten auch auf Speichersysteme anderer Hersteller zu replizieren. Wenn einem Unternehmen für den Katastrophenfall eine Notlösung ausreicht, kann man als Replikationsziel zum Beispiel kostengünstige Secondary Storage Arrays anschaffen. Spezielle Site-Recovery-Werkzeuge helfen dabei, die für den Notbetrieb erforderlichen Rekonfigurationen zum Beispiel der IP-Adressen zu automatisieren.
Die vor einigen Jahren auf den Markt gekommenen HCI-Lösungen (Hypercon-verged Infrastructure) haben zu einer Wiederauferstehung von lokal im Server verbauten SSD- und HDD-Laufwerken geführt. Die Sicherheit der gespeicherten Daten ist nun nicht mehr durch RAID-Controller gewährleistet, sondern durch ein per Software-Defined Storage (SDS) implementiertes Erasure-Coding-Verfahren. Diese Technik verteilt Kopien der Datenblöcke auf mehrere Nodes und schützt so vor einem Ausfall von einzelnen Laufwerken sowie von kompletten Nodes. HCI-Lösungen basieren auf Standard-Server-Hardware, die sowohl die Rechenleistung in Form von CPU und RAM, als auch die Netzwerkkonnektivität und die Speicherkapazitäten in einem System bereitstellt. Die Startkonfiguration beginnt meist bei drei Nodes und lässt sich durch das Hinzufügen weiterer Server einfach skalieren. Neue Hardwareressourcen integriert die HCI-Software automatisch in den Gesamt-Cluster, wodurch sich der Verwaltungsaufwand im Vergleich zu klassischen Plattformen mit separaten Server-, Speicher- und Netzwerkgeräten deutlich reduziert. Fällt ein Laufwerk oder ein kompletter Server aus, übernehmen die anderen Nodes automatisch die Aufgaben der fehlgeschlagenen Komponenten. Wenn die Reparatur abgeschlossen ist, führt das System automatisch ein Re-Balancing der im Cluster gespeicherten Daten durch, um wieder eine optimale Lastverteilung zu erreichen.