Serversysteme sind auf totale Auslastung angelegt - im Normalbetrieb ist das allerdings kaum der Fall. Fazit: Die Hardware ist unterfordert, Energie wird verbraten. Ähnlich bei der Storage-Virtualisierung, hier heißt Virtualisierung allerdings, dass einzelnen Anwendungen keine feste Hardware mehr zugeordnet ist, sondern sie per Software flexibel und bedarfsgerecht verteilt werden. Erfahrungen der Telekom beispielsweise zeigen, dass sich die Anzahl der nötigen Server auf einen Bruchteil reduzieren lassen. Und durch die Flexibilität der Speicherallokation keine größeren Speicherressourcen einfach brach liegen. Virtualisierte Umgebungen erlauben es zudem, Backups weitaus schneller durchzuführen und die Systeme bei Bedarf nahezu in Echtzeit zu spiegeln.
Zusammengefasst besticht die Virtualisierung anhand von vier guten Gründen: Sie senkt IT- sowie Energiekosten, schafft Flexibilität, garantiert Hochverfügbarkeit und vereinfacht die Verwaltung. Die Milchmädchen-Rechnung scheint ganz einfach: Weniger benötigte Server = weniger Energie = weniger Kosten. Wirklich? Denn auch hier gilt es, das richtige Maß zu finden. Die zentrale Frage lautet: Wie muss eine Maschine ausgelastet sein und welcher Energieverbrauch ergibt sich daraus? Energieeffizienz verlangt also ein fortwährendes Engagement von Seiten der IT-Entscheider, die immer wieder aufs Neue damit konfrontiert sein werden, die IT-Umgebung an veränderte Gegebenheiten anpassen zu müssen.
Doch eine Senkung des Stromverbrauchs stellt nicht die alleinige Herausforderung dar. Ein grüner Schlachtplan sollte noch weitaus mehr enthalten - gedreht werden kann nämlich schon an der kleinsten Schraube: den Produkten.