Energiebedarf von Rechnerzentren erhöht sich weiter
Trotz Virtualisierung von Server-Systemen und des Einsatzes von Energie sparenden Prozessoren wird sich der Strombedarf von Data-Centers weiterhin erhöhen, so eine amerikanische Studie.
Von wegen »Grüne IT«: Die amerikanische IT-Beratungs- und Schulungsfirma Uptime Institute hat errechnet, sich in den vergangenen Jahren der Strombedarf von Rechenzentren um den Faktor 3,4 erhöht hat.
Ein Ende dieses Trends sieht das Unternehmen nicht. Und dies, obwohl der Energiebedarf einer Recheneinheit (Computational Unit) seit 2000 um 80 Prozent gesunken ist.
Nach Angaben des Uptime Institute hat sich die Rechenleistung seit dem Jahr 2000 alle zwei Jahre um den Faktor drei erhöht. Im selben Zeitraum war in puncto Verbesserung der Energie-Effizienz nur eine Verdopplung festzustellen.
Mehr Rechenleistung bedeutet mehr Hitze
Zum erhöhten Strombedarf von Rechenzentren trage die Abwärme von Prozessoren maßgeblich bei. Server-Hersteller würden immer mehr Prozessoren in Systeme gleicher Größe packen, was die Hitzeentwicklung fördere.
Die Beratungsfirma prognostiziert, dass der Betreiber eines Data-Center im Jahr 2012 für jede Million Dollar, die er für Server-Systeme ausgibt, weitere 6,5 Millionen Dollar für die »Total Cost of Ownership« veranschlagen muss, also Strom, Kühlung et cetera.
Mithilfe folgender Maßnahmen können laut Uptime Anwender den Energiebedarf von Rechenzentren um bis zu 50 Prozent senken:
Konsequent Virtualisierungstechniken einsetzen,
die Stromsparfunktionen von Servern einschalten,
Server abschalten, die nicht mehr genutzt werden,
Software-Funktionen deaktivieren, die nicht verwendet werden, und
die Energie-Effizienz des Gebäudes erhöhen, etwa durch eine bessere Kühlung und eine geschickte Platzierung der Systeme im Rechenzentrum.