Von der Chip- bis zur RZ-Ebene

Leistungs- und Wärmemanagement

4. August 2007, 23:05 Uhr | Oliver Mark/jos Oliver Mark ist EMEA Solution Leader Data Center of the Future bei Intel in Feldkirchen.

Was bisher für die Betreiber von Rechenzentren zählte, war die Rechenleistung der installierten Server, während der nötige Energieaufwand zumeist ignoriert oder zumindest vernachlässigt wurde. Hier vollzieht sich nun ein Trendwechsel, der darauf zielt, die aufgewendete Energie zunehmend im Verhältnis zur damit erzielten Leistung zu betrachten.

Das Schlagwort lautet Energieeffizienz und ist die erste Grundvoraussetzung für ein
umweltfreundliches Rechenzentrum. Effizienz definiert sich im Rechenzentrum durch viele Aspekte,
beginnend vom Nutzungsgrad des Netzteiles, der CPU eines Rechners, über Server, Racks, Räume,
Stockwerke, dem Gebäude bis hin zur geografischen Lage und der Versorgungssituation im Umfeld.

Jeder Aspekt für sich gesehen bietet ein gewisses Potenzial zur Effizienzsteigerung. Um dieses
Potenzial komplett ausschöpfen zu können, ist allerdings ein einheitliches Gesamtkonzept zur
Steigerung der Energieeffizienz notwendig. Gleichermaßen sind Budgetgrenzen, Daten- und
Rechenleistungswachstum sowie Innovationen wichtige Treiber für das Rechenzentrum geworden.
Kernthema im Rechenzentrum ist die optimale Nutzung des gegebenen Platzes und der gegebenen
Ressourcen. Wie kann bestehende Infrastruktur (Kühlung, Strom, Platz) am effizientesten mit
neuester Technik genutzt werden und damit maximale Leistung mit minimalen Ressourcen bereitgestellt
werden. Die Effizienz kann in diesem Zusammenhang beispielsweise durch den
Power-Usage-Effectiveness-Quotienten (PUE) beziffert werden. Dieser Wert wäre 1, wenn die gesamte
Strommenge, die dem Rechenzentrum angeliefert wird, auch in tatsächliche Rechenleistung umgewandelt
werden könnte.

Energieeffizienz auf der Komponentenebene

Wer einen Kühlschrank im Elektrohandel kauft, kennt längst die Kennzeichnung der Geräte mit den
so genannten Energieeffizienzklassen, Angaben über Stromverbrauch und Kühlleistung. Ein
vergleichbares System ist nun auch für PCs, Workstations und Notebooks eingeführt. Gemäß
Energy-Star-Kennzeichnung der US-Umweltbehörde EPA, müssen diese ab 20. Juli 2007 deutlich
verschärfte Auflagen in Bezug auf ihre Leistungsaufnahme erfüllen. Die neue Fassung 4.0 schreibt
zwingend den Einsatz so genannter "80-Plus"-Netzteile vor, die bei 20 und 50 Prozent Belastung
sowie unter Volllast mindestens eine Effizienz von 80 Prozent erreichen müssen. Bisher hat sich
dies zwar noch nicht im Serverbereich durchgesetzt – allerdings ist die nötige Technik längst
vorhanden.

Ineffizienz im Server tritt an vielen Stellen auf, lediglich 50 Prozent des Energiebedarfs
werden tatsächlich derzeit in Rechenleistung umgesetzt, ineffiziente Stromversorgung verschlingt
rund 30 Prozent des gesamten Serverstromverbrauchs (Bild 2).

Unter der Bezeichnung "Demand Based Switching" hält eine Technik im Prozessor Einzug, die als
Speedstep als Teil der Intel-Centrino-Prozessorarchitektur bekannt wurde und heute auch "Enhanced
Speed-step Technology" heißt. Über sechs Stufen wird die Leistung der Server-CPU "on Demand"
reguliert, und zwar ohne Zutun des Betriebssystems im laufenden Betrieb, basierend auf der
ACPI-Tabelle, die der Motherboard-Hersteller vorgibt. Der Xeon-5100-Prozessor (Codename "Woodcrest?)
sowie kommende Multi-Core-Designs nutzen laut Intel diese Architektur und reduzieren so den
Stromverbrauch um 40 Prozent (65W statt 110W). Bei einem Einsatz in einem Bladeserver sind weitere
25 Prozent Einsparung möglich.

Im Bereich der Stromzuführung ist gleichermaßen ein erhebliches Einsparpotential zu nutzen.
Durch Einsatz von Deltawandlern (Delta Conversion On-Line UPS) statt Doppelwandlertechnik in der
unterbrechungsfreien Stromversorgung (USV) lässt sich ein höherer Leistungsgrad erreichen. Das
Wegfallen von Komponenten in der Stromverteilung und in der Rack-Unterverteilung durch die
Weiterleitung des Gleichstroms reduziert den gesamten Verlust um 50 Prozent (Bild 3), und dies bei
gleichzeitiger Erhöhung der Systemverfügbarkeit, denn es sind weniger Teile im Einsatz, die als
Fehlerursache ausfallen können.

Im Rahmen der von Intel unterstützten Industrie Initiative "Automatic Control of Power
Consumption (ACPC)" propagieren mehrere Unternehmen die Optimierung des maximalen Energieverbrauchs
pro Rack oder Raum. Dies kann aus zweierlei Gesichtspunkten geschehen: einerseits zur Festlegung
von absoluten maximalen Verbrauchsgrenzen, beispielsweise bei einer eingeschränkten
Versorgungssituation; andererseits kann diese Technik gleichermaßen zur Modellierung von maximaler
Leistung dienen. So kann ein Server mehr Leistung erhalten, sobald andere Server diese nicht
benötigen. Diese Technik kooperiert eng mit dem bereits erwähnten Demand Based Switching und ist
Grundlage für das so genannte "Enterprise Power and Thermal Management".

Demand Based Switching and Enterprise Power and Thermal Management machen ein Energiemanagement
auf Serverrack-Ebene möglich. Der nächste Schritt ist nun die Kontrolle aller Racks in einem
Rechenzentrum – inklusive der notwendigen Kühlanlagen. Dies stellt eine große Herausforderung vor
allem an die Schnittstelle zwischen IT-Systemen und Haustechnik dar. Die von Intel patentierte
Technik namens "Enterprise Power and Thermal Management (ETPM)" adressiert genau diesen Aspekt.
Über ein standardisiertes "Power Thermal Management Interface" in allen beteiligten Komponenten und
Systemen gehen Meldungen an eine zentrale Instanz. Die Idee ist grundsätzlich nicht neu und in
vielen Systemmanagementwerkzeugen IT-seitig implementiert. Meist fehlt dort jedoch die Erweiterung
um die Aspekte der Kühlung und Haustechnik. Bei einem konsequenten Einsatz der Modellierung lassen
sich beispielsweise die Klimaanlage, der Luftstrom der Ventilatoren oder die Leistungsaufnahme der
Vorratskühlung auf das notwendige Minimum drosseln. Damit ist eine Ersparnis von 20 bis 30 Prozent
in der Energiezuführung ins Gesamtsystem der Haustechnik umsetzbar.

Weiterhin trägt der konsequente Einsatz von Virtualisierung erkennbar zum Energiesparen bei. Ein
Großteil der installierten Server läuft mit einer durchschnittlichen Auslastung im Bereich von zehn
bis 30 Prozent ihrer Möglichkeiten. Bei höherer Auslastung sind die Verlustleistung und weniger
physikalische Server für den Regelbetrieb notwendig. Die zusätzliche Kapazität trägt zu erhöhter
Sicherheit (Ausfallszenario), Dynamik (Leistungsspitzen) oder Flexibilität (Test- und
Demo-Umgebungen) bei. Nach der Konsolidierung und intelligenter Verteilung der virtuellen Maschinen
auf die optimale Hardware, lassen sich im besten Fall während des Regelbetriebs 60 bis 80 Prozent
der notwendigen Leistung einsparen. Annähernd gelten ähnliche Werte auch für Speichersysteme.

Standort und Gebäude

Spätestens seit im Jahr 2006 mehrere US-Bundesstaaten dazu gezwungen waren, stundenweise ganze
Stadtteile von der Stromversorgung zu trennen, um eine Grundversorgung sichern zu können, ist der
Standort für ein Rechenzentrum ganz besonders zu betrachten. Zwei, sicherlich extreme, Beispiele
sollen hier als Verdeutlichung der Situation dienen:

In der afrikanischen Wüste wäre die Produktion von Strom durch Solarenergie besonders günstig
und effizient; ausreichend Platz zum Bau eines Rechenzentrums wäre vorhanden; allerdings würde die
Anbindung an ein globales Netzwerk und besonders die Kühlung des Gebäudes gegen die vorherrschende
Hitze tagsüber eine Herausforderung darstellen.

Am Nord- oder Südpol ein Rechenzentrum zu bauen bietet optimales
Kühlungspotenzial bei ausreichendem Platzangebot; allerdings ist auch hier die Netzanbindung nicht
trivial und die Versorgung mit günstiger Energie eher schwierig.

Auch bei der Energieversorgung kommen unterschiedliche Aspekte zum Tragen. So
ist die geografische Nähe zu einem Energieversorger grundsätzlich von Vorteil, da eine hochvolumige
und gesicherte Versorgung gewährleistet werden kann.

Betrachtet man herkömmliche Rechenzentren, so führt das typische Raumkühlungsdesign durch
schlechte Heißluftabführung zu überhitzten Servern, beschädigtem Equipment und möglichen Ausfällen.
Durch eine konsequenten Trennung von Kalt- und Warmluft, kombiniert mit einem gleichmäßigen
Druckverhältnis, kann ein solches Rechenzentrum anstatt derzeit 4 kW nun 12 bis 14 kW pro Rack
aufnehmen, ohne die Versorgungsinfrastruktur zu ändern.

Das folgende Beispiel illustriert die Entwicklung eines traditionellen Rechenzent-rums mit
konstanter Luftmenge in ein dynamisches, optimiertes Rechenzentrum mit maximiertem
Luftstrommanagement: Ausgangslage: 720 W/m2, 2 kW bis 4 kW pro Schrank, Kühlverluste bei 35
Prozent.

Durch die Installation von Abschottungen in Schränken, strömungsoptimierte
Kabelführung und das ausschließliche Platzieren der Luftauslässe im Doppelboden in niedrig
temperierten Gängen lässt sich die Durchströmung verbessern.

Mit separater Zu- und Abluftführung durch die Benutzung von Schränken mit
separater Luftführung und kalt/heißen Ganganlagen: In kalten Gängen strömt die Luft durch
Lochrasterplatten, die die Server frontseitig ansaugen; oberhalb der warmen Gänge wird die erwärmte
Luft durch Kamine ähnlich einer Dunstabzugshaube abgesaugt.

Nutzung von zwei Ebenen: Auf einer Ebene stehen hochverdichtete
Serverschränke, in der zweiten Ebene (voll begehbar) erfolgt die Luftverteilung und Zuführung.

Durch Verlegung der Kabel in einem Decken-Schienensystemen oberhalb der Racks
bleibt im Doppelboden mehr Platz für Kaltluft beziehungsweise entfällt die Unterbrechung des
Luftstroms. Die Racks sind konsequent nach dem Prinzip der kalten und warmen Gänge angeordnet.

Ergebnis: 5650 W/m2, 15 kW pro Schrank, Kühlverluste weniger als zehn Prozent!

Weitere Möglichkeiten zur Optimierung des Rechenzentrums sind unter anderem:

Nutzung von Umgebungsenergie, zum Beispiel könnte die Kühlung des
Rechenzentrums durch nahe liegende Gewässer erfolgen,

Nutzung von vorhandener Energie, zum Beispiel könnte die Abwärme der
Rechenanlagen anstelle der traditionellen Methode zur Beheizung der Büros dienen,

Nutzung von CO2-neutraler Energie etwa durch Implementierung von Photovoltaik,
Wind oder Sparanlagen und

Nutzung von Vorteilen vorhandener Materialien wie etwa Betonkernkühlung.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+