Die ausnahmslos geforderte Redundanz in sicherheitskritischen Anlagen war früher ein unfreiwilliges Hindernis auf dem Weg zur ideal angepassten USV. In der Vergangenheit kamen in der Regel große, monolithische Anlagen zum Einsatz, daher musste der Betreiber zwei identische Anlagen aufstellen. Beide wurden durchgehend betrieben, auch wenn die Last von einer Anlage versorgt werden konnte. Dadurch rangierte der Wirkungsgrad dieser Anlagen am unteren Limit, weil maximal 50 Prozent Auslastung erreicht wurden. Bei solchen Systemen, die immer noch häufig genutzt werden, schlägt der Stromverbrauch der Reserve-USV voll auf die Energiebilanz durch, treibt die Abwärme in die Höhe und erfordert infolge dessen mehr Kühlung, die nicht mehr für die Server zur Verfügung steht.
Heute orientieren sich viele Rechenzentrumsbetreiber an der Spezifikation des amerikanischen Uptime-Instituts, das Verfügbarkeitsklassen in so genannte „Tier“ einteilt. Bei Tier 1 muss das Rechenzentrum 99,671 Prozent verfügbar sein, bei Tier 4 sind es 99,995 Prozent oder darf, anders ausgedrückt, 24 Minuten Ausfallzeit pro Jahr haben. Weil diese extrem hohe Verfügbarkeit in einem Datacenter auch extreme finanzielle Aufwände nach sich zieht, raten Fachleute oft, stattdessen zwei Rechenzentren mit Tier 3 zu bauen. Hier ist die Ausfallzeit von 1,6 Stunden pro Jahr technisch einfacher zu realisieren. Die Gesamtverfügbarkeit des Systems ist aber durch die redundante Auslegung höher.