Um einen zuverlässigen IT-Betrieb zu gewährleisten, laufen Lüfter und Klimaanlagen in Serverräumen und Rechenzentren meist auf Hochtouren. Der Preis dafür ist im wahrsten Sinne hoch: Die Stromkosten explodieren. Abhilfe schafft hier ein so genanntes Thermal Assessment (Wärmeuntersuchung), bei dem Spezialisten die IT und die Klimatisierung unter die Lupe nehmen. Diese Untersuchungen identifizieren Stromfresser und zeigen Möglichkeiten zum Energiesparen auf.
Längst ist allgemein bekannt, dass aus umweltpolitischer Sicht vor allem die Industrienationen
ihren Energiebedarf senken müssen und die bereits heute kostspielige Energie künftig noch viel
teurer wird. Selbst in einem hoch technisierten Umfeld wie einem modernen Rechenzentrum stehen
Experten immer noch vor altbekannten Problemen: In Rechenzentren nimmt der Strom- und damit auch
der Kühlungsbedarf stark zu; dafür sorgen neben dem Aufkommen von sehr kompaktem Equipment wie
beispielsweise Bladeservern auch immer leistungsfähigere Prozessoren. Schätzungsweise 60 Prozent
der Stromkosten für IT fallen derzeit in Serverräumen an. Zudem entwickeln sich die Energiekosten
zum zweitwichtigsten Kostenfaktor in Rechenzentren, direkt nach der Hardware.
Im privaten Umfeld zahlen sich oft schon einzelne Maßnahmen wie gute Isolierung,
Energiesparlampen, Wärmerückgewinnung oder das vollständige Trennen elektrischer Geräte vom Netz
(statt Schaltens in den Standby-Modus) in barer Münze aus. Um die Energiekosten eines
Rechenzentrums langfristig zu senken, benötigen Unternehmen dagegen eine integrierte Strategie. Sie
sollte nicht nur einzelne Komponenten berücksichtigen, sondern sich über die gesamte Infrastruktur
erstrecken.
Am Beginn jeder strategischen Planung steht idealerweise eine genaue Analyse der Serverräume und
Rechenzentren. Die Ergebnisse eines solchen "Thermal Assessments" sind manchmal überraschend, denn
der Teufel steckt oft im Detail – wie bei unvorteilhaften Rack-Konfigurationen oder einem
ungünstigen Verlauf der Luftströme. Die gute Nachricht allerdings ist: Sind die Schwachstellen erst
einmal bekannt, lassen sie sich häufig rasch beheben.
Um Stromfresser zu orten und Optimierungspotenziale bei Stromversorgung und Betrieb auszuloten,
nehmen Kühlungsspezialisten das Rechenzentrum vor Ort genau unter die Lupe, erstellen einen
Grundriss und zeichnen Besonderheiten ein. Die gesamte von einem Rechner benötigte Energie wird in
Wärme umgewandelt, die aus dem Gerät abzuführen ist. Daher gehören Kontrollmessungen der
Oberflächentemperaturen zum Standardprogramm eines Thermal Assessments. In der Regel lassen sich
Maschinen je nach Hersteller mit einer vorderen Kühlluft von bis zu rund 25 Grad betreiben. An der
Rückseite aber erreichen die Temperaturen der Abluft je nach der im Rack installierten Hardware
durchaus Werte von bis zu 50 Grad.
Darüber hinaus untersuchen die Prüfer die Aufstellung und den Stromverbrauch einzelner Racks
sowie die Klimatisierung des Raums. Diese beiden Faktoren bedingen sich meist gegenseitig: Auch
Systeme, die in den Racks ganz oben eingebaut sind, müssen noch ausreichend kühle Luft erhalten –
deshalb temperieren viele Unternehmen bislang ihre Rechenzentren einfach vollständig auf 21 Grad.
Den dementsprechend hohen Energiebedarf nehmen sie zähneknirschend in Kauf.
Ein bisweilen wenig beachtetes, aber entscheidendes Detail sind ferner die Luftströme im
Rechenzentrum, die die Spezialisten mithilfe einer standardisierten Softwaresimulation ermitteln.
Kühle Luft strömt von vorne in die Racks, die warme Abluft tritt auf der Rückseite aus. Bei
ungünstigen Konfigurationen – beispielsweise bei nicht belegten Höheneinheiten im Rack – kann das
mitunter dazu führen, dass die warme Luft verwirbelt und von einer anderen IT-Komponente wieder
angesaugt wird. Die Folge: Eine lokale Überhitzung, ein so genannter Hot Spot. Auch eine
unvorteilhafte Positionierung von Luftein- und -auslässen der Klimaanlage kann zu erheblichen
Problemen führen. Hier sorgen in vielen Fällen schon geringfügige Änderungen für eine deutlich
effizientere und zuverlässigere Kühlung der IT (siehe Bilder).
Nach Abschluss umfangreicher Tests geben die Prüfer alle erhobenen Daten in ein
Simulationsprogramm ein, das mit einer Genauigkeit von 90 bis 94 Prozent verlässliche Ergebnisse
für eine umfassende Auswertung liefert und es ermöglicht, verschiedene Kenngrößen übersichtlich
darzustellen. Dazu gehört beispielsweise die horizontale und vertikale Temperaturverteilung in den
verschiedenen Ebenen, ebenso wie Erkenntnisse über Luftdruck, -strömungen oder -geschwindigkeit.
Die Spezialisten interpretieren die Simulationsergebnisse anhand dieser Parameter, halten sie in
einem Bericht fest und stellen sie bei einer persönlichen Präsentation vor. Den Abschluss dieses
Prozesses bildet ein Maßnahmenkatalog mit pragmatischen Empfehlungen, wie sich die
Klimaverhältnisse im Rechenzentrum ohne größere Umbaumaßnahmen verbessern lassen, wie die
Energiekosten für die Kühlung reduzierbar sind und welche Möglichkeiten es gibt, nach der
Optimierung mehr Systeme zu installieren.
Die Kosten für ein detailliertes "Klimamodell" eines Rechenzentrums mit einer Größe von 60 bis
100 Quadratmetern beginnen bei zirka 8000 Euro. Dementsprechend empfiehlt sich eine solche Analyse
nicht nur für große Konzerne – bereits bei mittelständischen Unternehmen amortisieren sich die
Aufwändungen für ein Thermal Assessment schnell. Denn aktuelle Studien zeigen, dass sich die
Leistungsdichte in Rechenzentren unabhängig von deren Größe in den letzten zehn Jahren mehr als
verzehnfacht hat. In manchen Fällen fallen mehr als 70 Prozent des Gesamtstromverbrauchs allein für
die Kühlung des Rechenzentrums an. Eine fundierte Analyse hilft Unternehmen also, bei bestehenden
Infrastrukturen für eine effizientere Energienutzung und niedrigere Kosten zu sorgen und neue
Systeme von vornherein optimal zu planen. Wer seinen Serverpark aufrüsten möchte und sich dabei
nicht auf eine gute Wärmeuntersuchung stützen kann, gerät leicht in einen Teufelskreis: Mehr
Leistung auf immer kleinerem Raum bedeutet höhere Hitzeentwicklung; mehr Hitzeentwicklung verlangt
nach besseren Kühlsystemen; stärkere Kühlsysteme benötigen mehr Energie, um die Abwärme abzuleiten.
Die Folge: Die Stromkosten eskalieren.
Selbst in einem gut durchdachten Rechenzentrum unterschätzen die Planer häufig die Bedeutung der
Kühlungsarchitektur. Die gängigen Kühlkapazitäten sind durchschnittlich auf 600 bis 800 Watt pro
Quadratmeter ausgelegt. Oft ist das zu wenig für die heute angebotenen Rechner, die immer mehr
Leistung auf immer kleinerem Raum bereitstellen und damit die Wärmedichte in die Höhe treiben. Aber
selbst wenn genügend Kühlkapazität zur Verfügung steht, kann es zu Hot Spots kommen – nämlich dann,
wenn die angesaugte Kühlluft zu warm ist. In einem solchen Fall entsteht ein Kreislauf sich
erwärmender Luft, und der Hardwareschaden ist vorprogrammiert. Außerdem werden Klimaanlagen in der
Regel über die Temperatur der angesaugten und der abgegebenen Luft, also eine "Delta-T-Regelung",
gesteuert. Sind die Luftströmungsverhältnisse nicht korrekt bestimmt, kann es vorkommen, dass
besonders kühle Luft zur Klimaanlage zurückströmt und sich die Kühlleistung daraufhin ungewollt
reduziert. Wenn es kein Konzept dafür gibt, verschiedene Bereiche und Komponenten im Rechenzentrum
jeweils individuell und bedarfsgerecht zu kühlen, bleibt nur noch eine Option: Sämtliche
Rechnerräume müssen prophylaktisch "unterkühlt" werden – was nicht nur den Energieverbrauch in die
Höhe treibt, sondern auch zu Kondenswasserbildung und damit zu Korrosion führen kann.
Ein weiteres, häufig vernachlässigtes Detail sind die Doppelböden. Meist dienen sie auch der
Kabelführung, was bei entsprechender Planung der Luftzirkulation nicht weiter problematisch ist.
Teilweise liegen aber auch Abwasserrohre in Doppelböden – und diese sind in jedem Fall ein großes
Hindernis für die strömende Kühlluft. Unerwünschte Mischluft entsteht auch sehr leicht, wenn
Bodenauslässe nicht verschlossen sind. Dies beeinträchtigt einerseits die Druckverhältnisse im
Doppelboden und führt andererseits dazu, dass aus einem offenen Bodenauslass 500 Watt oder mehr
Kühlleistung im Warmgang entweichen. Jeder dieser Aspekte lässt sich leicht beheben –
vorausgesetzt, ein Unternehmen weiß um diese Details. Versäumnisse in Sachen Kühlung können teuer
werden, denn der Grund für rund ein Drittel aller Serverausfälle lautet schlicht: Überhitzung.
Jedes Rechenzentrum ist ein gewachsenes, nicht standardisiertes Umfeld, das ein
organisatorisches Eigenleben führt. Eines jedoch haben alle Rechenzentren gemeinsam: Ihr
durchschnittlicher Erneuerungszyklus liegt zwischen zehn und 20 Jahren. Deshalb hat bei der
Einrichtung eines Rechenzentrums der Aspekt Zukunftssicherheit höchste Priorität. Dabei spielt die
Energieeffizienz eine entscheidende Rolle – und dies nicht nur, weil durch niedrigere Stromkosten
mehr Spielraum für IT-Investitionen bleibt. Wer bei der Zusammenstellung der einzelnen Komponenten,
der Konfiguration der Racks, der Wahl des Kühlverfahrens, der Klimatisierung und dem Aufbau des
gesamten Rechenzentrums konsequent auf Energieeffizienz achtet, schafft damit die besten
Voraussetzungen für eine flexibel skalierbare Infrastruktur.
Zukunftssicherheit bedeutet zudem, die Einhaltung bestimmter Standards zu gewährleisten:
Zertifizierungen, die Versicherungen oder auch Geschäftspartner verlangen, erhalten beispielsweise
Dienstleister oder Zulieferer nur dann, wenn sie nachweisen können, dass ihre Rechenzent-ren
gesetzte Anforderungen erfüllen. Und dazu zählt neben vielen anderen Faktoren die optimale Kühlung.
Dabei kommt es nicht unbedingt darauf an, immer die aktuellsten Techniken einzusetzen, sondern den
richtigen Mix aus neuen und bewährten Vorgehensweisen zu finden. In einem zweistufigen Konzept
lassen sich zum Beispiel Komponenten wie Prozessor oder Festplatte mit Luft kühlen. Kaltes Wasser
temperiert die dabei entstehende warme Abluft in einem Wärmetauscher wieder herunter – und zwar in
einem Modul, das neben dem Standard-IT-Rack platziert wird. Auf diese Weise ist die Flüssigkeit
nicht durch das Rack zu leiten, und trotzdem leitet diese Methode 90 Prozent der Wärme aus dem
Serverrack ab. Der Effekt: Die Anforderungen an die Leistung der Klimaanlage im Datacenter sinken,
während die Gesamteffizienz der Kühlung steigt. Allerdings müssen Unternehmen, die sich die Option
einer Wasserkühlung offenhalten wollen, von vornherein mehr Platz einplanen.
Unternehmen sollten Wert darauf legen, genaue Anschluss- und Verlegepläne der Infrastruktur zu
erstellen und sie stets aktuell halten. Dies sorgt für Transparenz und erleichtert die strategische
Planung bei Änderungen der Infrastruktur.