Der Bedarf an Servern und Storage-Geräten steigt nach wie vor rasant - die Strompreise ebenso. Experten gehen deshalb davon aus, dass die Klimatisierung in absehbarer Zeit den Serverbetrieb als größten Kostenfaktor im RZ ablösen könnte. Die CIOs sind deshalb gefordert, den Klimawandel im Data Center einzuleiten - aus ökonomischen und ökologischen Gründen. Die Diskussion beschränkt sich derzeit aber stark auf die Komponenten- und bestenfalls Systemebene. Managementlösungen für den nachhaltigen IT-Betrieb stecken ebenso in den Kinderschuhen wie aussagekräftige Standards zur Bewertung der IT-Energieeffizienz.
Moderne Server packen immer mehr immer leistungskräftigere CPUs auf immer weniger Raum. Laut
IDC-Analyst Jed Scaramella verbraucht ein durchschnittlicher Server heute schon rund 400 Watt.
Dessen Wärmeabgabe erfordert eine ebenso leistungskräftige Gerätekühlung und RZ-Klimatisierung –
die eskalierende Hitzeentwicklung im Data Center lässt damit den Stromverbrauch gleich auf
zweifache Weise deutlich wachsen. "Gestiegene Mengen sehr heißer Luft haben im Rechenzentrum eine
Mikroversion der globalen Klimaerwärmung geschaffen", erklärte dazu schon vor einem Jahr der
Forrester-Analyst Richard Fichera.
Highend-Rechenzentren drohen damit an die Grenze ihrer Kühltechnik zu stoßen – und mitunter
sogar an die Grenze ihres Stromlieferanten. Die Gartner-Analysten Rakesh Kumar und John Enck
rechneten vor, der Energieverbrauch eines dicht bestückten Bladeserver-Racks könne bei bis zu 30 kW
liegen – während herkömmliche Racks auf zwei bis drei kW ausgelegt seien. Die resultierende Hitze
erfordere statt konventioneller Luftkühlung innovativere Lösungen bis hin zum Einsatz von
Flüssigkeitskühlung, wie sie bislang auf Highend-Mainframes beschränkt war. So folgerten Kumar und
sein Kollege Will Cappelli im Dezember 2006: "Ein umweltbewusstes Management des Energieverbrauchs
wird eine fundamentale Aufgabe für die Infrastruktur- und Betriebsorganisationen in den Unternehmen
werden." Den CIOs und IT-Leitern dürfte dabei vor allem das Senken der Strom- und Betriebskosten am
Herzen liegen. Ein nachhaltiges RZ-Management – und in wenigen Jahren werden die Gesetzgeber der
Industrienationen sicher nichts Geringeres fordern – muss aber zudem darauf abzielen, dass
ökonomische und ökologische Interessen Hand in Hand gehen.
Forrester-Marktforscher Fichera kritisierte, dass die CPU-Produzenten zu lange nur auf
Leistungssteigerungen geachtet und Fragen der Energieeffizienz – so das Vermeiden von Leckströmen
(Leakage) – vernachlässigt hätten: "Leckströme sind völlig verschwendete Energie und haben im Lauf
der Zeit zugenommen." So habe ein Intel Xeon MP eine maximale Hitzeabstrahlung von 130 Watt
erreicht, also 260 Watt pro Quadratzoll – das entspreche selbst in der endgültigen Ausbaustufe der
CPU noch der Heizleistung einer Kochplatte. AMDs sparsamer Opteron-Prozessor hat Intel in Sachen
Energieeffizienz "Beine gemacht", wie es ein Branchen-Insider formulierte. Inzwischen hat Intel mit
dem Core 2 Duo wieder den Anschluss gefunden.
Zwar sind Fortschritte bei AMD und Intel gute Nachrichten, doch sie zeigen zugleich die Crux der
Energieeffizienzdebatte in der IT-Industrie: Die Diskussion ist sehr stark komponentenorientiert.
Die Anbieter werben in letzter Zeit gerne mit einem reklamierten überdurchschnittlichen
Wirkungsgrad einer bestimmten CPU, eines Netzteils, eines Abluftmechanismus, bestenfalls eines
Serversystems oder einer Klimaanlage. Für die diffizilen Fragen des Zusammenspiels zwischen
Serverhardware und Applikationen bleibt häufig ebenso wenig Raum wie für die Problematik, mit
welchen Werkzeugen die IT-Abteilung im Sinne eines umfassenden, nachhaltigen Prozessmanagements
steuernd eingreifen könnte.
So haben sich zum Beispiel in den USA unter der Federführung von Ecos Consulting 30 Hersteller
von PC-Netzteilen im Rahmen der Initiative 80 Plus das Ziel gesetzt, Netzteile mit einem
Wirkungsgrad von mindestens 80 Prozent zu vermarkten. Die Hersteller haben teils Referenzdesigns
erstellt, teils erreichen ihre Geräte dieses Ziel bereits. IBM gibt für die Stromversorgung seines
Bladecenters sogar einen Wirkungsgrad von über 90 Prozent an. Doch Silvio Weeren,
Unternehmensbeauftragter für umweltfreundliche Produkte bei IBM, gibt zu bedenken, dass solchen
punktuellen Herstellerangaben angesichts des Fehlens aussagekräftiger Benchmarks und
Bewertungsraster keine allzu große Bedeutung beizumessen ist: "Alle Hersteller beleuchten nur den
Teil, der für sie günstig ist."
Am größten waren die Anstrengungen der Herstellerschaft, energieeffiziente Geräte zu
produzieren, bislang an den beiden Extremen des Hardwarespektrums: bei den mobilen Endgeräten wie
PDAs, Smart-phones und Notebooks einerseits und den Supercomputing-Kraftprotzen andererseits. Bei
den Geräten für den mobilen Einsatz geht es vorrangig darum, durch eine kontinuierlich minimal
gehaltene Auslastung die Batterielaufzeit zu verlängern. Ein Beispiel dafür ist Intels
Robson-Technik, die ab der zweiten Jahreshälfte 2007 bei der Notebook-Plattform Santa Rosa zum
Einsatz kommen soll: Der Robson-Treiber soll im Zusammenspiel mit einem speziellen Flash-Speicher
und einem BIOS-Level-ROM die Festplatte von Zugriffen entlasten. Dies dient dazu, die Arbeit des
Geräts zu beschleunigen und zugleich den Stromverbrauch zu senken: Der Flash soll der Harddisk
Energie raubende mechanische Arbeit ersparen, und zudem kann die Platte dadurch schneller in den
Strom sparenden Tiefschlafmodus verfallen.
Beim Supercomputing hingegen geht es stets darum, bei möglichst maximaler Auslastung den
Stromverbrauch im Griff zu behalten, um weit skalieren zu können. Auch hier stand lange nur die
reine Rechenpower im Vordergrund. Seit November 2006 findet man aber unter green500.org auch eine
erste, an die Supercomputing Top 500 angelehnte Aufstellung der Highend-Boliden mit Fokus auf die
Energieeffizienz, in diesem Fall gemessen in Linpack-Mflops pro Watt. Die Aufstellung zeigt
erhebliche Unterschiede: IBMs Blue Gene/L bringt es auf 112 Mflops/W, gefolgt vom Mare Nostrum,
ebenfalls von IBM, mit 58 Mflops/W. Schon der auf Platz 7 liegende Earth Simulator von NEC holt
aber laut der Liste nur 3 Mflops aus einem Watt Leistung heraus. IBM selbst gesteht dabei zu, dass
die Spitzenverbrauchswerte nicht unbedingt dem echten Verbrauch entsprechen und Linpack-Benchmarks
nicht für alle Supercomputer-Anwendungen relevant sind. Aber immerhin liegt damit nun eine erste
Aufstellung vor, um das Wettrüsten der High-end-Hersteller auch unter Gesichtspunkten des
Energieverbrauchs einschätzen zu können.
Dem für eine durchschnittliche Serverfarm Verantwortlichen helfen aber die
Verbrauchstricksereien für Notebooks wie Intels Robson ebenso wenig weiter wie die Daten über
aufwändig getunte CPU-Monster. Hier sind die Hersteller von Servern und PCs gefordert, für die "
Mittelklasse" der Normalverbraucher im Serverrack und unter dem Schreibtisch ähnlich wirkungsvolle
Maßnahmen zu finden wie für die Extremfälle der batteriehungrigen Mobilrechner und der
prestige-trächtigen Vorzeigeboliden.
Die Minderung der eskalierenden Hitzeentwicklung im RZ ist aber bei Weitem kein reines
Hardwareproblem, das sich einfach an die Hersteller von Servern und deren Bauteilen delegieren
ließe. "Das Management der Hitze im Data Center ist eine Kette", argumentiert Fichera. "Diese
beginnt mit den Chips, reicht weiter über die Boards, das Gehäuse und das Rack und endet mit dem RZ
als Ganzem." Es handle sich um ein "domänenübergreifendes Prob-lem", die Lösung erfordere deshalb
eine konzertierte Anstrengung zahlreicher Beteiligter, darunter "Anbieter von Kühllösungen und
Halbleitern, Systemdesigner, Softwareingenieure sowie Rechenzent-rumsarchitekten und -betreiber"
.
Diese komplexe Situation führt dazu, dass die Anschaffung Strom sparender Server allein in
puncto Ökologie bestenfalls einen Teilerfolg bringen wird. "Zirka 50 Prozent des CO2-Ausstoßes –
die Angaben von Studien schwanken hier zwischen 30 und 70 Prozent – entstehen schon durch den
Verbrauch bei der Produktion eines Servers, die so genannte graue Energie", erläutert Silvio Weeren
von IBM. "Lediglich die übrigen 50 Prozent entfallen auf den Serverbetrieb. Ein nur zu zehn Prozent
ausgelasteter Server, der mit einer Laufzeit von lediglich drei Jahren betrieben wird, ist deshalb
insgesamt immer ineffizient."
Ein niedriger Auslastungsgrad von PCs und Servern ist im IT-Alltag heute allerdings sehr weit
verbreitet. Auf der Client-Seite rührt der Umstand daher, dass heutige PCs für den
durchschnittlichen Unternehmenseinsatz meist überdimensioniert sind. Energiewirtschaftliche Abhilfe
könnte hier der Einsatz von Server-based Computing (SBC) und Thin Clients (TCs) schaffen: Da beim
SBC die Anwendungen serverseitig laufen, stellen TCs geringere Anforderungen an die CPU und kommen
deshalb in der Regel ohne Lüfter aus. Da auch die Daten auf Servern ruhen, beinhalten die Geräte
keine Festplatte. Der Verzicht auf bewegliche Datenträger schafft dabei nicht nur mehr Sicherheit,
sondern senkt den Stromverbrauch zusätzlich – laut den TC-Herstellern auf bis zu ein Zehntel des
PC-Strombedarfs.
Auf der Serverseite wiederum rührt die niedrige Auslastung von der verbreiteten
Single-Purpose-Architektur: Um die Verlässlichkeit des Systems zu steigern, betreibt man gerne auf
einem Server lediglich eine Anwendung oder nutzt ihn für eine spezielle Aufgabe. Dies vermeidet
zwar Softwarekonflikte und macht das System damit stabiler, führt aber auch dazu, dass sich die
Server-CPU mit den an sie gestellten Anforderungen meist nur "langweilt". Hier steht also die
Vorgabe einer möglichst verlässlichen Unterstützung der Geschäftsprozesse in direktem Widerspruch
zum Wunsch nach Ressourenschonung und damit verbunden niedrigeren Energiekosten. Der Anspruch,
angesichts steigender Energiekosten mit dem Strom besser zu haushalten, erfordert deshalb ein
Umdenken: vom "Erschlagen der Probleme mit Hardware" hin zum geschäfts- wie auch umweltgerechten
Ressourcenmanagement.
Der für Administratoren heute nächstliegende Weg zu höherer Energieeffizienz ihrer Serverfarmen
führt über die Servervirtualisierung und gegebenenfalls in einem zweiten Schritt über die
Konsolidierung mehrerer Server größeren Maschinen. Ein Rechner, der durch das Hosting zahlreicher
virtueller Instanzen höher ausgelastet ist, nutzt nicht nur die investierte graue Energie
effizienter aus, sondern kommt zudem auf bessere Betriebswerte. Schließlich fressen auch wenig
genutzte Komponenten Strom. Und manche Netzteile arbeiten bei hoher Beanspruchung sogar deutlich
effizienter als bei der Versorgung eines bloßen Idle-Betriebs. Vmware, Microsoft, Virtuozzo und
Xensource bieten hier bekannte Softwarelösungen, die Anbieter größerer Serversysteme zudem
hardwaregestützte Virtualisierungskonzepte.
Neben dem reinen (Applikations-)Serverbetrieb bietet insbesondere die angebundene
Speicherinfrastruktur erhebliches Energiesparpotenzial, worauf Charles King, Principal Analyst bei
Pund-IT Research, verweist: "Die Überprovisionierung von IT-Infrastrukturen mit mehr Server- und
Storage-Hardware als erforderlich ist allzu verbreitet. Steigende Energiekosten machen solche
Rechenzentren schnell zu IT-‚Geldgräbern‘." Große Festplatten mit niedrigerer Drehzahl, so King,
seien nach Watt pro TByte bemessen effizienter. Deshalb rät er zur Nutzung von Array-basierten
Tiered-Storage-Konzepten, wie sie beispielsweise EMC anbietet: "Das Idealziel ist es, nur so viele
Hochleistungslaufwerke zu nutzen, wie erforderlich ist, um datenintensive Anwendungen wie Oracle
und Exchange zu betreiben." Die Daten weniger anspruchsvoller Applikationen ließen sich dann auf
langsamere Platten auslagern. Außerdem rät der Marktforscher zur Nutzung von ILM (Information
Lifecycle Management), um unnötiges Mehrfachspeichern und -archivieren von Datenbeständen zu
vermeiden.
Über solche architekturellen und organisatorischen Schritte hinaus weist der Markt bereits
einige Zusatz-Tools für effizienteres Energiemanagement auf. So bietet IBM mit Power Executive eine
On-board-Lösung für Echtzeitmessungen des Stromverbrauchs. Dies erlaubt Administratoren zu
beurteilen, ob sie mit ihren Schätzungen bei der Strombedarfsplanung richtig lagen. Zudem lassen
sich laut Hersteller Policies definieren, um den Energieverbrauch bei einem bestimmten Schwellwert
zu begrenzen, so zum Beispiel beim Ausfall einer USV oder der Klimaanlage. Szenarien, in denen
Serverinstanzen automatisch und lastabhängig auf andere physische Plattformen migriert werden,
sofern dies energiewirtschaftlich sinnvoll ist, sehen Experten aber noch als Zukunftsmusik. Denn zu
komplex seien hier noch die Fragen bezüglich der Security, Ausfallsicherheit und
Systemstabilität.
Auch Interfaces zwischen System- und Facility-Management – um beispielsweise Klimaanlagen zu
drosseln, wenn die Serverlast niedrig ist – sieht IBM-Mann Weeren noch als Zukunftsmusik. Ein
derartiges Konzept hat allerdings Konkurrent Hewlett-Packard (HP) im November unter dem Namen
Dynamic Smart Cooling (DSC) angekündigt: DSC soll künftig Termperaturveränderungen erkennen und
Kaltluft automatisch entsprechend umlenken. Im Vergleich zu herkömmlichen Klimaanlagen soll dies
die Kühlkosten um 20 bis 45 Prozent senken. Denn bisher arbeiten Klimaanlagen im RZ statisch und
müssen deshalb auf höhere Wärmelast ausgelegt sein als meist vorherrscht. Allerdings wird DSC erst
ab dem dritten Quartal 2007 verfügbar sein. Gartner-Analysten raten, einen näheren Blick auf DSC zu
werfen, wenn die Kühl- die Serverbetriebskosten übersteigen. Richard Fichera von Forrester rät
RZ-Betreibern generell: "Geben Sie Hitze- und Kühlungsfragen bei der Auswahl neuer Systeme und
neuer Systemmanagement-Tools höhere Priorität." Um den Unternehmen in puncto Energieeffizienz
Anhaltspunkte zu liefern, laufen derzeit auf Staats- und Industrieseite einige Projekte, die auf
die Etablierung von Richtlinien und Benchmarks abzielen. So hat die US-Behörde EPA im Dezember
einen halbjährigen Evaluierungsprozess angestoßen, um ein Verfahren zur Messung der
Data-Center-Energieeffizienz zu entwickeln.
Ähnliche Schritte sind im deutlich energiebewussteren "Old Europe" durchaus ebenfalls zu
erwarten. So will das European Commission Joint Research Centre Anfang März in London ein erstes
Meeting für einen "Code of Conduct" (Verhaltensleitfaden) abhalten.
Laut Weeren wird Spec.org zudem im April voraussichtlich einen Benchmark für die
Energieeffizienz rechenintensiver 1- bis 2-RU-Server vorstellen. Mittelfristig müssen IT-Manager
also wohl bei der Produktauswahl mit wesentlich konkreteren Vorgaben durch ihren CIO oder früher
oder später wohl auch durch den Gesetzgeber rechnen.
Die IT-Branche widmet sich erst seit wenigen Quartalen den Problemen der Ressourcenschonung –
jenseits des bloßen Power-Managements – mit einem deutlich verstärkten Nachdruck. Es ist deshalb
wenig überraschend, dass die bisher gefundenen Lösungswege überwiegend punktueller Natur sind. So
kritisieren zum Beispiel auch die Gartner-Analysten Cappelli und Kumar das Fehlen übergreifender
Managementlösungen, die den CIOs und IT-Managern Aufschluss über die Energieeffizienz ihrer
Infrastrukturen geben könnten: Heute verfügbare Lösungen, die auf der physikalischen Ebene
arbeiten, böten "wenig Hilfestellung, wie ein Unternehmen IT so einsetzen könnte, dass sie in
puncto Energieverbrauch effektiver nutzbar wäre".
Von Herstellerseite war bislang aber nur sehr wenig zu vernehmen, was auf Aktivitäten in die
Richtung eines nachhaltigen IT-Managements deutet. Es wird also noch ein weiter und steiniger Weg
sein, bis eines Tages der CIO auf seinem Management-Dashboard neben dem grünen Ampellicht für "
Geschäftsprozess läuft effizient" ein zweites für "Geschäftsprozess läuft energieeffizient" sehen
kann – eine Anzeige, die dann den Namen "grünes Ampellicht" auch wirklich verdient.