Funktionalität, Verfügbarkeit, Sicherheit – die grundlegenden Ziele für den Betrieb von IT-Infrastrukturen und Rechenzentren sind seit Jahren identisch. Gleich geblieben ist aber auch der stetig wachsende Kostendruck, der es notwendig macht, alle Einsparungspotenziale möglichst optimal auszunutzen – insbesondere den Faktor Strom.
Nach Zahlen der U.S. Environmental Protection Agency (EPA) beanspruchen die Energiekosten für den Betrieb eines Rechenzentrums bis zu 30 Prozent des IT-Budgets eines Unternehmens. In den USA, so die EPA weiter, sind Rechenzentren für rund 1,5 Prozent des gesamten Energieverbrauchs verantwortlich. Dies verursacht Energiekosten in Höhe von 4,5 Milliarden Dollar, wobei man davon ausgeht, dass sich der Verbrauchswert innerhalb der nächsten fünf Jahre annähernd verdoppeln wird. Diese Kostensteigerung resultiert paradoxerweise vor allem aus den stetigen Verbesserungen der eingesetzten Gerätschaften: Ein Mehr an Leistung oder eine höhere Port-Dichte bedingen eben höhere Leistungsaufnahmen und einen steigenden Kühlungsbedarf. Andererseits bestehen aber auch deutliche Einsparungspotenziale, da häufig mit dem Energieverbrauch unbewusst eher fahrlässig leger umgegangen wird.