Vor zwei Jahren hat der Stromverbrauch der IP-Netzwerkelemente im Data-Center nur einen Faktor unter vielen dargestellt. Mittlerweile ist die Leistungsaufnahme zu einer der wichtigsten Kenngrößen im Serverbereich geworden. Nach Studien von IDC verbraucht ein Server heute im Durchschnitt 400 Watt. Dabei hat sich parallel dazu auch der Stromverbrauch innerhalb von 10 Jahren nahezu vervierfacht. Hier ist der zusätzliche Bedarf von Massenspeichern und Switches noch nicht eingerechnet.
Das stellt Rechenzentrumsbetreiber vor massive Schwierigkeiten. Denn die verbrauchte Leistung wird in Hitze umgewandelt, und diese müssen Kühlsysteme wieder abführen. Hinzu kommt, dass Server immer kleiner und flacher geworden sind. Den Höhepunkt in dieser Entwicklung stellen Blade-Systeme dar, die auf einer Höhe von knapp 40 Zentimetern gut 4500 Watt verbrauchen können.
Die meisten physikalischen Server werden jedoch hinsichtlich ihrer Prozessorlast kaum beansprucht. Denn in der Vergangenheit galt die Devise, Anwendungen und Services auf mehrere separate Maschinen aufzuteilen. Die Prozessorlast erreichte dabei selten mehr als 15 Prozent. Die Server liefen also am unteren Ende ihres Leistungsvermögens.
Dies ist heute nicht mehr sinnvoll. Denn durch den Einsatz von Virtualisierungstechnik lässt sich die Auslastung auf 60 bis 80 Prozent hochschrauben, bei praktisch gleichem Stromverbrauch. So können etwa die Sprachkommunikation und die UC-Anwendungen ins zentrale Data-Center wandern, ohne zusätzliche Server-Kapazitäten zu installieren müssen.