Nachhaltigkeit aus Sicht eines RZ-Betreibers

Energiemanagement trifft Hochverfügbarkeit

29. Mai 2007, 23:45 Uhr | Josef Ledermann/wg Josef Ledermann ist Telco Security Officer beim Telekommunikationskonzern Orange Group mit deutscher Niederlassung in Eschborn.

Die Planung und der Betrieb moderner Rechenzentren stellen IT-Teams vor eine harte Bewährungsprobe. Vor allem die Energieversorgung und die Entsorgung der Abwärme setzen technisches und wirtschaftliches Fingerspitzengefühl voraus. Aber auch die effiziente Nutzung der Energie und Sicherheitsaspekte zählen zu den entscheidenden Faktoren bei der professionellen Organisation eines Datacenters.

Das Geschäft eines Unternehmens steht und fällt mit der Verfügbarkeit des Rechenzentrums: Ließ
sich ein mehrstündiger Ausfall der DV-Umgebung in den 80er-Jahren noch halbwegs unbeschadet
überstehen, so bedeutet ein längerer Kollaps der IT-Infrastruktur heute mitunter das Aus jeglicher
Geschäftsaktivität. Ein zehntägiger Ausfall unternehmenskritischer IT-Komponenten, so das
Marktforschungsinstitut Meta Group in einer Studie, führe innerhalb von fünf Tagen mit einer
Wahrscheinlichkeit von 50 Prozent zum Einstellen des Betriebs.

Ein geradezu düsteres Szenario für die IT der Zukunft, das in erster Linie mit einer Komponente
zusammenhängt: Strom. Beispiel Nordrhein-Westfalen im November letzten Jahres: Eine Panne im
deutschen Stromnetz hatte zu einer Kette von Ausfällen geführt, die von Deutschland bis nach
Spanien und Italien reichte und zahlreiche IT-Systeme innerhalb Europas binnen Sekunden lahmlegte.
Denn das Abschalten einer Hochspannungsleitung von 400.000 Volt hatte zur Überlastung anderer
Stromleitungen und somit zu einer Art Dominoeffekt geführt.

Verfügbarkeit von Strom: Zünglein an der Waage

Die Verfügbarkeit von Energie wird zunehmend zum Maß aller Dinge beim Aufbau und Betrieb eines
Rechenzentrums. Als logische Konsequenz aus den wachsenden Anforderungen an die IT-Verfügbarkeit
steigt auch der Bedarf an Sicherstellung der Energieversorgung. Redundanzen in der Stromversorgung,
doppelte beziehungsweise alternative Einspeisungen von Energieversorgern, Notstromsysteme und
Konzepte für die unterbrechungsfreie Wartung gehören deshalb heute zum absoluten Muss für
hochverfügbare Rechenzentren.

Die Planung für eine ununterbrochene Stromversorgung beginnt deshalb idealerweise bereits bei
der Auswahl des Stromanbieters und dedizierten Verträgen für eine möglichst hohe Verfügbarkeit von
Energie. Eine Disponibilität (Verfügbarkeit) von nur 99,0 Prozent bedeutet umgerechnet eine
Ausfallzeit von 3,65 Tagen im Jahr, eine 99,9999-prozentige Verfügbarkeit hingegen garantiert eine
Downtime von maximal lediglich 31,54 Sekunden, so ein Leitfaden des Bundesverbands
Informationswirtschaft Telekommunikation und neue Medien e.V. (Bitkom). Dieser Unterschied kann
über das Wohl und Wehe des gesamten Unternehmens entscheiden.

Für größere IT-Zentren empfiehlt sich deshalb eine zusätzliche Einspeisung über eine zweite
Umspannstation, um mithilfe einer zusätzlichen unabhängigen Energiequelle eine volle Redundanz zu
bewerkstelligen. Als unumgänglich hat sich zudem der Einsatz von Konzepten zur Notstromversorgung
erwiesen. In der Regel kommt hier eine unterbrechungsfreie Stromversorgung (USV) in Frage, mit der
sich einfache Spannungsschwankungen absorbieren und die Qualität der Energielieferung steuern
lassen. Darüber hinaus ist ein Dieselaggregat ratsam, das mit der Erstbetankung mindestens für
zwölf Stunden, besser noch für 24 bis 72 Stunden die Stromversorgung gewährleistet.

Für kleinere Unternehmen und Mittelständler bieten sich dedizierte Serviceverträge mit
Lieferanten mobiler Dieselmotoren an, deren Verfügbarkeit das Unternehmen im Fall der Fälle binnen
kürzester Zeit in Anspruch nehmen kann. Häufig lassen sich auch Leihaggregate von den jeweiligen
Energieversorgungsunternehmen nutzen. Beim Stellplatz für ein Notstromgerät sollte ein Unternehmen
auf einen einfachen Transportweg und eine gute Einbringungsmöglichkeit achten, zudem sind
Vorschriften für die Lagerung brennbarer Flüssigkeiten einzuhalten. Alle diese Maßnahmen zur
kontinuierlichen Versorgung mit Strom sind schon aus dem Grunde Pflicht, weil
Energieversorgungsunternehmen in der Regel jegliche Haftung in ihren Standardverträgen kategorisch
ausschließen.

Effizienz im Fokus

Abgesehen von den Sicherheitsvorkehrungen gegen einen möglichen Stromausfall spielt die
Effizienz in puncto Wirtschaftlichkeit eines Rechenzentrums eine entscheidende Rolle: Heute
dominieren komplexe Geräte mit entsprechend hohem Stromverbrauch die IT. Ganz oben auf der Liste
der Energieverbraucher stehen dabei klassische, bis oben hin vollgepackte 19-Zoll-Schränke. Hier
sollte ein Unternehmen bereits beim Kauf von IT-Equipment Komponenten mit dem Siegel "Datacenter
Certified" bevorzugen. Dabei handelt es sich um Geräte, die speziell für den Einsatz im
Rechenzentrum konzipiert sind und über einen optimierten Stromverbrauch verfügen.

Die Crux: Zusätzlich zum Stromverbrauch der IT-Infrastruktur gehört die von den Geräten
abgegebene Abwärme zu den Hauptfaktoren bei Berechnungen der Wirtschaftlichkeit eines
Rechenzentrums. Die Gründe liegen einerseits in einer ständig wachsenden Gerätezahl, andererseits
in der Leistungssteigerung und Miniaturisierung der IT. Bei modernen Prozessoren sind zwischen 70
und 130 Watt pro Quadratzentimeter zu kühlen. Hinzu kommen Festplatten und Speicherbausteine, die
ebenfalls eine immer höhere Kühlleistung erfordern: Ein 19-Zoll-Rack mit IT-Equipment produziert
zwischen 2000 und 3000 Watt elektrischer Leistung in Form von Wärme – die wiederum mit
strombetriebenen Einrichtungen abgeführt werden muss. Diese Hitzeentwicklung entspricht in etwa der
Abwärme eines Herds. Diese Wärme ist unbedingt aus den Geräten, den Racks und dem Raum abzuführen,
um die Betriebstemperaturen eines RZs konstant zu halten. Als Faustregel geht Orange von einer
Umgebungstemperatur von 22 bis 25 Grad Celsius im Rechenzentrum aus.

Ratsam ist es deshalb für Unternehmen grundsätzlich, Racks auf einen rund 50 cm hohen
Doppelboden zu platzieren, der mit Ablassschlitzen an den Stellflächen der IT-Schränke versehen
ist. Das Prinzip: Kalte Luft wird in den Zwischenraum geblasen, die die Abwärme mithilfe von
Konvektion oder zusätzlichen Ventilatoren im Rack nach oben treibt. Anschließend gilt es, die
Temperaturen der einzelnen Racks kontinuierlich zu überwachen, denn die Ausfallrate der IT steigt
exponenziell mit der Temperatur. Um sämtliche Serverschränke ausreichend mit kalter Luft zu
versorgen, sollte ein Unternehmen deshalb bereits bei der Konzeption eines Rechenzentrums auf
ausreichend viele Strömungskanäle im Doppelboden achten. Auch sorgen Kalt- und Warmluftzonen sowie
breite Gänge für eine optimale Kühlwirkung der Luft. Auf jeden Fall sollte man jedoch vermeiden,
dass die Schränke im vorderen Bereich die Abwärme der nebenstehenden Rack-Reihen als Zugluft
ansaugen und so eine effiziente Kühlung verhindern.

Oft – vor allem bei den teils extremen Anforderungen neuer Serverfarmen – erweist sich das
bereits für den Mainframe-Betrieb der 70er-Jahre eingeführte Doppelbodenkonzept allerdings als
nicht mehr tauglich, so der Bundesverband Bitkom. Reichten Kälteleistungen von ein bis drei
Kilowatt pro 19-Zoll-Rack früher aus, sind diese Werte heute an die aktuelle Wärmeabsonderung der
Hochleistungs-IT anzupassen. Bewährt haben sich hier spezielle Klimageräte, die anhand von Faktoren
wie der maximalen Verlustleistung, den Aufstellbedingungen, Anschaffungs-, Betriebs-,
Erweiterungskosten und Ausgaben für die Ausfallsicherheit evaluiert werden sollten.

Bei Klimageräten unterscheiden RZ-Experten im Wesentlichen zwischen zwei Anlagentypen: Geräte,
die Kältemittel verdampfen, und Aggregate, die kaltes Wasser für die Wärmeabfuhr verwenden. Während
erstere Klimageräte mit Kompressoren arbeiten, die das Kältemittel und damit die Wärme
transportieren, basieren Kaltwasseranlagen auf einem geschlossenem Wasserkreislauf, der durch
Pumpen transportiert wird. Beide Kühlungsformen tragen allerdings wiederum erheblich zum
Gesamtstromverbrauch eines Rechenzentrums bei: Erfahrungsgemäß sind bis zu 50 Prozent der Energie
auf die Kälteerzeugung und Luftbeförderung zurückzuführen.

Standortwahl

Bereits bei der Auswahl des Standorts der Server können effiziente Maßnahmen für einen
wirtschaftlichen RZ-Betrieb erfolgen. So sollte ein Ort gewählt werden, an dem sich zusätzliche
Wärme durch Sonneneinstrahlung oder Beleuchtung vermeiden lässt. Auch ist es ratsam, Möglichkeiten
zur freien Außenluftkühlung zu prüfen. Hierbei wird die Außenluft über Kühlregister geführt und die
benötigte Kühlleistung beschafft. Das schont die sonst für die Kühlung notwendigen
leistungsintensiven Kompressoren. Dies kann vor allem im Winter eine kostengünstige Alternative zur
Kühlung des RZs darstellen.

Grundsätzlich ist es sinnvoll, die Kühlleistung an die Wärmeabgabe anzupassen. Es bringt nichts,
einen Server mit einer überdimensionierten Kälteanlage zu temperieren. Für verbesserte
Stromeffizienz kann zudem die Vorgehensweise sorgen, die Abwärme aus Serverräumen zu Heizzwecken zu
nutzen. Auf jeden Fall aber sollten Sensoren für die Temperatur und Luftfeuchtigkeit verwendet und
die Wirkung von Ventilatoren regelmäßig überprüft werden. Auch nach der Integration neuer Server
oder dem Abbau von Rechnern gilt es, die Temperaturverhältnisse neu zu kontrollieren und
gegebenenfalls anzupassen. Bereits während der Planungsphase sollten die Verantwortlichen das
energietechnische Verhalten der IT-Komponenten betrachten. Dazu gehören Fragen nach deren
Energieverbrauch sowie deren Anteil am gesamten Stromverbrauch.

Die häufigsten Fehler im Zusammenhang einer RZ-Konzeption: Oft werden Energieeffizienzmaßnahmen
nicht getroffen, weil "zunächst investiert" werden muss. Vor allem in Zeiten leerer Kassen finden
Argumente für eine neue Energiepolitik wenig Gehör, weil Unternehmen die Aussichten für deren
Amortisierung häufig falsch einschätzen. Etliche Situationen zeigen aber, dass sich Konzepte zur
Energieeinsparung sehr schnell rentieren und sich auch die Investitionen häufig im Rahmen halten.
Ein häufiger Fehler ist zum Beispiel, dass zwar die Investitionskosten für die Anschaffung von
IT-Komponenten und Klimageräten erhoben werden, eine Berechnung über die gesamte Lebensdauer des
Equipments indes nicht stattfindet. Hingegen sollte eine Bilanzierung der Investitionen und
Verbrauchskosten sorgfältig und unter Einbindung sämtlicher Faktoren erfolgen. So lässt sich eine
Investitionsrechnung für Energieeffizienzmaßnahmen aufstellen, auf deren Basis die
Wirtschaftlichkeit von Stromsparmaßnahmen rasch belegbar ist.

Sicherheit Maß aller RZ-Dinge

Abgesehen vom Energieverbrauch spielen Sicherheitsvorkehrungen die entscheidende Rolle beim
Aufbau und dem Betrieb eines modernen Rechenzentrums. Neben Rauch- und Branderkennungsanlagen,
feuerfesten Türen, einer Zutrittskontrolle und regelmäßig kontrollierten Löschanlagen zählen
Sicherheitsmaßnahmen für den Zugriffsschutz auf die geheiligten Räume der IT zum unumgänglichen
Bestandteil des RZ-Betriebs. Grundsätzlich sollte ein Autorisierungsmechanismus greifen, der
verschiedenen Nutzergruppen auch unterschiedliche Zutrittsrechte gewährt. Dazu zählen
Sicherheitskonzepte, nach denen die jeweils zuständigen Teams der IT-Abteilung für Mail-, File-
oder aber Webserver nur die jeweils fachspezifischen Rechte erhalten. Diese Sicherheitsvorkehrungen
gelten auch für externe Dienstleister, falls der RZ-Betrieb per Outsourcing erfolgt.

Die Debatte um die energieeffiziente Nutzung von Rechenzentren ist allgegenwärtig – und dabei
ist noch nicht einmal klar, wie sich die Energieeffizienz eines RZs überhaupt sinnvoll berechnen
lässt. Darauf verweist zum Beispiel The Green Grid – ein Anfang 2007 gegründetes
Branchenkonsortium, das sich dem Energiesparen verschrieben hat – in seinem White Paper "Green Grid
Metrics: Describing Datacenter Power Efficiency". Denn als Messgrößen dienen heute häufig "Power
Usage Effectiveness" (PUE) und "Datacenter Efficiency" (DCE). Beide Werte ergeben sich aus dem
Verhältnis des RZ-Gesamtenergieverbrauchs ("Total Facility Power") zur vom IT-Equipment genutzten
Stromleistung ("IT Equipment Power"). DCE ist dabei lediglich der Umkehrwert zu PUE (siehe Bild).
The Green Grid bemängelt die Aussagekraft dieser einfachen Formeln und fordert, stattdessen den
Wert "Datacenter Performance Efficiency" (DCPE) zum Maßstab zu machen. DCPE ergibt sich aus der
Nutzleistung ("Useful Work") geteilt durch den RZ-Gesamtenergieverbrauch. Die Frage ist nun aber:
Wie berechnet man den Wert für "Useful Work" – zumal moderne Serversysteme heute bereits selbst
aktive Kühlungseinrichtungen enthalten? Entsprechend urteilt auch Silvio Weeren,
Unternehmensbeauftragter für umweltfreundliche Produkte bei IBM: "Das Ziel ist richtig, aber nicht
einfach zu erreichen, die technische Basis sehr komplex." Hier werden sich also die Fachleute der
Industrie wohl noch die Köpfe heiß reden, um zu einem allgemein anerkannten und zugleich wirklich
aussagekräftigen Bewertungsmaßstab zu gelangen.

Dr. Wilhelm Greiner

Freie 19-Zoll-Einbauschächte mit Blindplatten verschließen.

Maximale Kühlleistung nach realistischen Annahmen auslegen. (Auf den Typenschildern von IT-Equipment angegebene Nennleistungen werden im realen Betrieb nicht erreicht. Die maximal erforderliche Kühlleistung liegt in der Praxis häufig um 30 Prozent oder mehr darunter.)

Rechtzeitiger Austausch von Luftfiltern.

Einsatz von leisen und effizienten Scroll-Kompressoren.

Einsatz von EC-Ventilatoren.

Redundante Kühlsysteme im Normalbetrieb alternierend nutzen.

Je nach Anwendungsfall prüfen, ob die Vorlauftemperatur höher gewählt werden kann, denn jedes Grad kostet Energie.

Nutzung der so genannten freien Kühlung.

Bei unbesetzten Standorten die Beleuchtung automatisch über Präsenzmelder ein-/ausschalten, denn auch die Abwärme der ungenutzten Beleuchtung muss gekühlt werden.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+