Skalierendes Ressourcenmanagement

Ganzheitlich gegen Energieverschwendung

19. August 2007, 22:00 Uhr | Peter Dümig/jos Peter Dümig ist System Consultant bei Dell in Frankfurt am Main.

Den letzten Anstoß gab die öffentliche Diskussion um den Klimawandel: Auch die Rechenzentren in den Unternehmen sind heute gefordert, sparsamer mit Energie umzugehen. Gefragt ist hier eine Vielzahl von Maßnahmen, angefangen bei den einzelnen Systemkomponenten über komplette Server bis zur Wärmeableitung und Kühlung ganzer Rechenzentren.

Generell betrachtet lassen sich im Lebenszyklus eines Rechenzentrums zwei Phasen ausmachen, in
denen die Stellschrauben für eine Verbesserung der Energieeffizienz ansetzen können: Zunächst
einmal bei der Planung und der Einrichtung eines neuen Data Centers und dann im laufenden Betrieb.
Wo in der letzten Zeit neue Einrichtungen entstanden, spielten immer Maßnahmen zum sparsamen Umgang
mit Energie eine bedeutende Rolle. Zugegeben: Ein Neubau kommt heute in der Privatwirtschaft oder
auch im universitären Sektor nicht so häufig vor. Weit bedeutsamer ist das Energiemanagement in den
bestehenden Rechenzentren. Ansatzpunkte gibt es genügend: von Racks über Server bis zu einzelnen
Komponenten. Ein Blick auf den tatsächlichen Energieverbrauch im Rechenzentrum verhilft dabei zu
wichtigen Erkenntnissen.

Vor kurzem hat Dell daher eine Bestandsaufnahme zum Energieverbrauch in seinen eigenen
Rechenzentren durchgeführt. Ermittelt wurde dabei der durchschnittliche Energieverbrauch pro Stunde
im Laufe eines Arbeitstags, zunächst für das gesamte Rechenzentrum, anschließend für das
eigentliche IT-Equipment und schließlich für einzelne Systemkomponenten. Auf oberster Ebene, dem
Energieverbrauch im gesamten Rechenzentrum, entfällt der größte Anteil am Energieverbrauch auf die
IT-Anlagen (41 Prozent), gefolgt von Belüftung, Heizung, Klimatisierung (31 Prozent) und
schließlich den Leitungsverlusten (28 Prozent). Anders ausgedrückt: Lediglich 41 Prozent der
zugeführten Energie wird für den Betrieb des IT-Equipments eingesetzt, die restlichen 59 Prozent
für andere Zwecke.

Diskussion über den Wirkungsgrad des IT-Equipments

Der Wirkungsgrad von 41 Prozent erscheint auf den ersten Blick niedrig. Verglichen mit anderen
Studien aus den USA, bei denen ein Effizienzgrad von 30 Prozent ermittelt wurde, ist dies jedoch
durchaus beachtlich. So bringt es beispielsweise auch ein Wärmekraftwerk (Kohle) auf einen
Wirkungsgrad zwischen 25 und 45 Prozent.

Eine Ebene darunter wurde das Segment IT-Equipment näher beleuchtet. Auch hier gibt es drei
große Gruppen von Energieverbrauchern: Server (63 Prozent), Storage-Systeme (22 Prozent) und
Kommunikationseinrichtungen (15 Prozent). Innerhalb der Server weisen die CPUs mit 31 Prozent den
größten Energieverbrauch auf. Der wichtigste Punkt dieser Bestandsaufnahme: Wer den gesamten
Energieverbrauch im Rechenzentrum reduzieren will, darf sich nicht nur auf einen einzelnen Faktor
konzentrieren. Wo der Blickwinkel auf eine niedrigere Leistungsaufnahme bei Prozessoren beschränkt
bleibt, gerät völlig außer Acht, dass sich durch eine Steigerung der Infrastruktureffizienz von 41
auf 51 Prozent mit der gleichen Energiemenge deutlich mehr Server im Rechenzentrum betreiben
lassen.

Eine solche Sichtweise hilft beispielsweise auch IT-Abteilungen, die unter beengten
Platzverhältnissen gehalten sind, die Leistung pro Rack beziehungsweise pro Quadratmeter
Stellfläche zu steigern. An dieser Stelle lässt sich der Hebel bei der Verbesserung der
Infrastruktureffizienz ansetzen. Wo die Rack-Dichte zunimmt, ist nicht der verfügbare Platz das
Problem, sondern die Klimatisierung und der dazu notwendige Strombedarf.

Effiziente Rechenzentren durch Rightsizing

Um die Effizienz in den Rechenzentren zu steigern, müssen die Verantwortlichen eine ganze Reihe
von Stellschrauben drehen. Dies reicht von der Infrastruktur über die Racks bis zu den einzelnen
Systemen und deren Komponenten. Überall dort, wo Rechenzentren grundlegend erneuert oder ausgebaut
werden, zählt die Devise "kaufe nur die Bausteine, die wirklich gebraucht werden (Rightsizing)". Im
laufenden Betrieb lautet das Motto "nutze das, was benötigt wird".

Das Fundament jeglichen Rightsizings sind standardisierte Server und Storage-Systeme, die es
sehr einfach ermöglichen die Kapazitäten abhängig vom Bedarf zu erweitern. Der modulare Ansatz
gewährleistet, dass in einer ersten Phase nur genau so viel Hardware gekauft wird, wie tatsächlich
benötigt. Steigt der Bedarf, lässt sich die Infrastruktur problemlos ausbauen. Dieses Vorgehen
vermeidet, dass im Hinblick auf ein prognostiziertes künftiges Wachstum mehr Equipment beschafft
wird als notwendig.

Überflüssige Kapazität verursacht dann natürlich auch unnötige Energiekosten. Das
bedarfsabhängige Wachstum kann Spitzenbelastungen oder auch Zeiten geringerer Auslastung weit
besser abfangen. So ist es keineswegs ungewöhnlich, dass eine Reihe von Servern in einem
Rechenzentrum über einen längeren Zeitraum kaum oder gar nicht ausgelastet ist.

Ansatzpunkte auf mehreren Ebenen

Sind die Server entsprechend ausgestattet, lässt sich ihr Stromverbrauch mit administrativen
Mitteln leicht senken, etwa bei Prozessoren, Grafik- Chipsets und Speicherkomponenten. Sowohl AMD
mit seiner "PowerNow"- als auch Intel mit der "SpeedStep"-Technik liefern an der Stelle wichtige
Beiträge. Aber auch Festplatten bieten Möglichkeiten, Energie einzusparen. So verbrauchen
beispielsweise 2,5-Zoll-SAS-Platten zirka 30 Prozent weniger Strom als gängige SCSI-Laufwerke.

Ergänzend zu Ansätzen bei einzelnen IT-Komponenten und Systemen sollten RZ-Planer den
Energiebedarf im gesamten Data Center analysieren und wo immer möglich senken. Denn neben der
Berücksichtigung der Nutzungsintensität der Bauteile und Module muss der Hebel nicht zuletzt beim
aggregierten Energieverbrauch des gesamten Rechenzentrums angesetzt werden. Im Fokus stehen dabei
Kühlung und Klimatisierung. Eingebettet in ein umfassendes Systemmanagement können beispielsweise
Sensoren die Luft- und Prozessortemperatur erfassen. Auf dieser Basis lässt sich dann die
Geschwindigkeit einzelner Lüfter und die Leistung der Klimaanlage anpassen. Der entscheidende
Vorteil: Die Kühlsysteme müssen nicht permanent mit voller Leistung arbeiten. Damit lässt sich ohne
Beeinträchtigung der Leistung kräftig bei den Energiekosten sparen.

Konsolidierung und Virtualisierung

Kombiniert mit Server- und Speicherkonsolidierung sowie Virtualisierung bietet die optimierte
Kühlung und Klimatisierung vielfältige Möglichkeiten, den Energiebedarf zu senken.

Derartige Ansätze optimieren die Auslastung der bereits installierten Systeme und können bei
gleich bleibender Last und Leistung sogar redundante Systeme eliminieren, die sonst immer parallel
mitliefen.

Der technische Fortschritt hat seinen Teil dazu beigetragen, dass sich die
Virtualisierungstechnologie immer stärker in den Kernbereichen von Servern, Storage-Systemen und
Rechenzentren durchsetzt. Multi-Core-Prozessoren, die direkte Unterstützung der Virtualisierung in
den CPUs und serielle Techniken bei I/O-Geräten fördern diesen Trend. Komplementär dazu haben sich
auch vielfältige Neuerungen im Systemmanagement ergeben, die dazu beitragen, den Energiebedarf
besser als bislang steuern zu können. So lassen sich heute beispielsweise vollständige virtuelle
Maschinen im laufenden Betrieb vom einen auf den anderen physikalischen Server (Workload Mobility)
verschieben (siehe auch Artikel auf Seite 50).

Server, Racks und RZs

Die dahinter stehende Idee kann problemlos auch auf einzelne Server, Racks und andere Segmente
in einem Rechenzentrum übertragen werden. Auch hier sollte es möglich sein, ganze Einheiten
außerhalb der Spitzenzeiten in einen Stromsparmodus zu versetzen. Entsprechende Ansätze entwickelt
ein Industriekonsortium namens Green Grid, in dem neben Dell auch die anderen bedeutenden Server-
und Prozessorhersteller mitarbeiten. Green Grid betrachtet aus einer ganzheitlichen Sicht das
Ecosystem Rechenzentrum.

Die Hersteller reagieren auf diese Anforderungen mit Produkten in unterschiedlichen
Leistungsklassen und durchaus auch mit Wahlmöglichkeiten bei den CPUs: Der "Dell PowerEdge 2950"
mit zwei Sockeln und Quad-Core-Intel-Xeon-Prozessoren bietet beispielsweise ausreichend Leistung
kombiniert mit internen Erweiterungsmöglichkeiten bei gleichzeitiger Rack-Dichte. Er eignet sich
laut Dell für Netzwerkinfrastrukturanwendungen, etwa zur Konsolidierung von Web-, Messaging-,
Datenbank- und Datei-/Druckdiensten.

Sein Pendant "PowerEdge 6950" wird von bis zu vier AMD-Opteron-Prozessoren angetrieben und ist
damit für anspruchsvolle Unternehmensanwendungen wie Datenbanken, Serverkonsolidierungen und
Virtualisierungen geeignet. Im Vergleich zu herkömmlichen Vier-Prozessor-Systemen verbraucht der
PowerEdge 6950 laut Dell bis zu 20 Prozent weniger Strom (siehe dazu auch die Kästen "Energiesparen
mit AMD- und Intel-Prozessoren").

Fazit: Effizienz von CPUs schafft nur punktuelle Entlastung

Steigende Energiepreise und immer höhere Anforderungen an die Hardware machen die Stromrechnung
zu einer Belastung für die IT-Budgets in vielen Unternehmen. Sich bei Gegenmaßnahmen nur einzelne
Punkte herauszugreifen, genügt i nicht.

Die Verbesserungen bei der Energieeffizienz von Prozessoren schaffen nur punktuelle Entlastung.
Gefragt sind daher Ansätze, die neben Servern und Storage-Systemen auch alle Aspekte der
Wärmeableitung und Kühlung und im Rechenzentrum berücksichtigen.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+