Die neuen Server-Generationen bringen viele Verbesserungen mit sich, die für mehr Energieeffizienz sorgen. Damit diese wirken können, müssen sie in intelligente Betriebskonzepte eingebettet sein. Eines dieser Konzepte ist die Begrenzung des Stromverbrauchs durch Power Capping.
Zu den größten Energieverbrauchern im Rechenzentrum zählen heute die Server-Systeme. Den größten
Stromhunger haben dabei die CPU und der Arbeitsspeicher. Beide zusammen stehen je nach Ausbau für
zirka 60 Prozent des gesamten Energiebedarfs eines Servers. Die restlichen 40 Prozent benötigen die
Netzwerkanbindungen, Lüfter, Grafikmodule, Netzteile und Baseboards. Aufgrund der Dominanz der CPUs
und Speicher rücken diese beiden Komponenten in den Mittelpunkt der Betrachtungen, wenn die
Energieeffienz erhöht werden soll.
Die Hersteller der Systeme optimieren ihre Rechner in Richtung Energieeffizienz. Um den
Energieverbrauch der CPU zu senken, hat Intel in der neuesten CPU-Generation der Xeon-55xx-Reihe
eine Menge an unterstützender Logik zur Energieeinsparung integriert. Aber nicht nur hinsichtlich
der CPU sind Optimierungen möglich. Auch bei nahezu allen weiteren Komponenten wie den Festplatten,
den Lüftern, dem Arbeitsspeicher und – falls vorhanden – den Bildschirmen ermöglichen dynamische
Betriebsmodi eine optimale Energiezufuhr. Festplatten und Bildschirme etwa kennen schon seit
mehreren Jahren einen Standby-Betrieb oder ähnliche Funktionen zur Energiedrosselung. Eine wichtige
Rolle kommt auch den Netzteilen zu. Gute Netzteile erreichen Effizienzwerte von über 90
Prozent.
Nahezu alle Server-Komponenten sind heute bereits in der Lage, den Energieverbrauch besser zu
steuern. Dazu sind allerdings auch spezielle Vorkehrungen durch die Hersteller der Systeme zu
treffen. Dies erfordert eine Unterstützung der Energiesparfunktionen in den jeweiligen Baugruppen
und im Design des Baseboards mit dem Baseboard-Management-Controller und dem BIOS.
Die gebotenen Basistechniken müssen sinnvoll in einem System integriert sein, und der Anwender
muss sie auch nutzen. Ein mögliches Verfahren zum Senken des Energieverbrauchs ist die Regelung und
Begrenzung der Stromzufuhr, das "Power Capping". Dabei ist ein Zielkorridor mit Ober- und
Untergrenzen für den Stromverbrauch vorgegeben, wobei zuvor genau diese Ober- und Untergrenzen bei
laufender Appliktion ermittelt werden. Der Betrieb des Systems erfolgt dann innerhalb dieses
Korridors. Da die Menge der zugeführten Energie auch Auswirkungen auf die maximale Rechenleistung
hat, kann die Energiebegrenzung unter Umständen auch mit einer Einschränkung des Server-Durchsatzes
bei Spitzen der Rechenleistungsanforderung einhergehen.
Ein Server, der nur zu wenigen Prozent belastet ist, verschlingt im Verhältnis mehr Energie, als
er ausgelastet für den Betrieb der Geschäftsapplikationen benötigen würde. Umgekehrt lässt sich
durch die Begrenzung der Energie für das System auch der Durchsatz bewusst steuern. So kann
beispielsweise eine unkritische Applikation wie etwa eine Reisekostenabrechnung durch die
Begrenzung der zugeführten Energiemenge in ihrer Priorität gegenüber wichtigen Applikationen
abgesenkt werden. Wichtige Geschäftsprozesse lassen sich mit mehr Leistung versorgen; nachts kann
diese wiederum den Batch-Läufen zugewiesen sein. Zusammen mit der Energiebegrenzung erfolgt somit
eine gewünschte Begrenzung der maximalen Rechenleistung. Diese Begrenzung hat damit nicht nur
Vorteile – sie kann, unüberlegt eingeführt, auch zu Leistungseinbußen des Servers und Verletzungen
des Service Level Agreements (SLA) führen.
Die Ermittlung der Energiemenge schafft die Grundlage zur Optimierung der Einsatzszenarien der
Server. Um diese zu bestimmen, sind die Kenntnisse des Energiebedarfs unter verschiedenen
Laststufen notwendig. Doch auf welchen Wert sollte die von den Servern konsumierte Energie begrenzt
werden? Und welche Auswirkungen hat dies, wenn überhaupt?
Die Leistung von CPUs ist unter anderem auch durch die Taktfrequenz bestimmt. Je höher der Takt,
umso mehr Programmcode lässt sich in einer bestimmten Zeit abarbeiten. Ein Takt ist aber
physikalisch betrachtet nichts weiter als ein kurzer Stromimpuls. Je höher also der Takt ist, umso
mehr Stromimpulse benötigt die CPU. Die CPU wiederum treibt alle peripheren Bausteine an, daher
erhöht sich auch deren Stromverbrauch mit der Taktrate. Im Umkehrschluss heißt dies: Will man den
Energieverbrauch senken, so kann dies auch durch die Senkung der Taktraten erfolgen. Die Senkung
der Taktrate und damit des Energieverbrauchs führt aber auch zu einem geringeren Durchsatz. Daher
scheidet eine einfache Begrenzung ohne Rücksicht auf weitere Parameter aus. Die gesamte Regelung
über Power Capping muss daher alle Komponenten des Servers einschließen. Die Herausforderung dabei
liegt in der bestmöglichen Zuweisung der maximal möglichen oder zu verteilenden Energie an die
Verbraucher im Rechenzentrum unter Einhaltung des Service Level Agreements.
Für Server-Systeme lassen sich vier markante Energiewerte angeben:
Die maximale mögliche Leistung des Netzteils (sofern der Server ein eigenes
Netzteil aufweist),
die durchschnittlich benötigte Leistung des Servers über einen längeren
Zeitraum,
die maximale benötigte Leistung aller Server-Baugruppen unter Berücksichtigung
von Leistungsspitzen und der maximalen Taktraten der CPU sowie
die minimale "Standby"-Leistung, die ein Server im Ruhezustand (idle)
benötigt.
Zwischen den beiden letzten Werten, der maximalen und minimalen Leistung eines Servers, können
natürlich beliebig viele weitere Abstufungen getroffen werden. Diese sollen für eine einfache
Betrachtung aber außen vor bleiben. Das Ziel der Energienutzung sollte somit in einer bestmöglichen
Anpassung der benötigten Energiemenge an die Anforderung des Servers liegen. Steht diese
Anforderung fest, so kann auch das passende Neztteil für den Server ausgewählt werden, was zum
Beispiel bei der neuen Generation der Proliant-G6-Server möglich ist. Denn Netzteile weisen je nach
Lastanforderung unterschiedliche Wirkungsgrade auf. Eine optimale Anpassung der benötigten
Netzteilleistung an die vom Server geforderte Energiemenge sorgt für ein zusätzliches
Einsparpotenzial.
Durch die Bestimmung der optimalen Betriebspunkte der Server lässt sich der Energieverbrauch
eines Rechenzentrums besser den realen Gegebenheiten anpassen. In der Vergangenheit wurde die
gesamte benötigte Energie eines Rechenzentrums oder Racks aus der Summe der einzelnen Komponenten
anhand der maximalen elektrischen Anschlusswerte aus den technischen Daten ermittelt.
Die Begrenzung des Stroms reduziert jedoch nicht nur die durch den Server konsumierte Energie
für den eigenen Betrieb, sondern hat darüber hinaus weitere positive nachgeschaltete Effekte: Falls
ein Server-Rack, ein Blade-Verbund oder etwa das gesamte Rechenzentrum bereits an der Grenze seiner
maximalen Stromversorgung operieren, so lassen sich durch die Begrenzung der bestehenden Systeme
noch Energiereserven gewinnen. Dies ermöglicht den Einsatz eines weiteren, vielleicht dringend
benötigten Servers, der sonst nicht mehr möglich wäre. Ähnlich verhält es sich, wenn beispielsweise
ein Server-Rack oder Blade-Gehäuse um weitere Systeme ergänzt werden sollen, die Stromversorgung
des Racks dies aber nicht mehr erlaubt.
Da der Kühlbedarf der Server direkt von der zugeführten Energie abhängt, lässt sich damit auch
der Bedarf für die Kühlleistung steuern. Der dritte Aspekt betrifft die Absicherung der
Stromversorgung. Eine erhöhter Bedarf der Server-Systeme mit kurzfristigen Spitzenlasten könnte die
maximal mögliche Stromzufuhr überschreiten – und zwar mit unakzeptablen Folgen für die
Aufrechterhaltung der Business-Prozesse, indem sich das Rechenzentrum oder Teile davon abschalten.
Der obere Schwellenwert sorgt dafür, dass die maximale Leistung des RZs oder Racks nicht
überschritten wird.
Schwellenwerte zur Energienutzung erlauben eine Anpassung der Energie an die Verbraucher des
Rechenzentrums. Indirekt steuern sie damit auch die Prioritäten der Geschäftsprozesse, aber auch
den Bedarf für Kühlleistung. Anstatt die benötigte Energie aus der Summe der einzelnen Maximalwerte
zu ermitteln, lässt sich diese nun genauer den Applikationsanforderungen anpassen. Die damit frei
werdenden Energiereserven führen dazu, dass bestehende Installationen im Hinblick auf die maximal
mögliche elektrische Leistung des Rechenzentrums als auch hinsichtlich der Kühlleistung besser
ausgenutzt werden, die der Klimaanlage abzufordern ist. Auf diese Weise schafft das Power Capping
durch die genauere Bestimmung der tatsächlich notwendigen Energiewerte zusätzliche Reserven. Die
Begrenzung der Energie muss allerdings dediziert auf die Unterschiede der Verbraucher abgestimmt
sein. Die Herausforderung dabei liegt darin, die Prioritäten der Geschäftsprozesse mit dem
Energiebedarf der unterschiedlichen Server-Baugruppen, der Server und auch der Racks in Einklang zu
bringen. Dazu sind ausgefeilte Mechanismen notwendig.