Vor nicht all zu langer Zeit war das Hauptthema der RZ-Manager noch der steigende Bedarf an Rechenleistung und damit auch entsprechender IT-Infrastruktur. Heute sieht dies ganz anders aus. Energie sparende Techniken sind in den Mittelpunkt der Diskussion gerückt. Die Gründe dafür liegen vor allem in dem wachsenden Energiebedarf im Rechenzentrum - bis zu 20 Prozent mehr - und den weltweit kontinuierlich angestiegenen Strompreisen.
IT-Manager müssen umdenken, seitdem die Stromrechnung eine wesentliche Position in der
Unternehmensbilanz eingenommen hat. Jeder zu viel ausgegebene Euro wirkt sich heute negativ auf die
Wettbewerbsfähigkeit eines Unternehmens aus. Darüber hinaus erhöht auch die global entfachte
Diskussion über vermeidbare CO2-Emissionen den Druck auf die IT-Manager, ihre Datenzentren nicht
nur leistungsfähiger sondern auch umweltfreundlicher zu machen.
Die großen Konzerne suchen nach passenden Strategien. So bemüht sich Microsoft seit einiger Zeit
um die Entwicklung des "grünen Datenzentrums der Zukunft". In Kalifornien wandte sich der
Energieversorger PG&E (Pacific Gas and Electric) mit einem innovativen Sparmodell an alle
Unternehmen mit großen Datenzentren. Seit Ende 2006 bietet PG&E auch spezielle Stromtarife für
jene Großkunden an, die zum wirtschaftlichen Betrieb ihres Datenzentrums neue Techniken wie zum
Beispiel Servervirtualisierung einsetzen.
Nach Angaben des Projektmanagements des führenden Energieversorgers gibt es Kunden, die mit den
entsprechenden Maßnahmen den Energieverbrauch um bis zu 50 Prozent reduzieren konnten. Klar ist,
dass nun auch andere Energieversorger dabei sind, ähnliche Programme zu implementieren.
Längst haben Hardware- und Softwarehersteller erkannt, dass ihre Produkte also nicht mehr nur
nach den klassischen Kriterien Performance und Platzkapazität ausgewählt werden, sondern
Energieverbrauch und Flexibilität eine immer wichtigere Rolle spielen. Entsprechend vielfältig ist
auch das aktuelle Angebot für den RZ-Manager, der sein Datenzentrum auf den neuesten Stand der
Technik bringen will.
Im ersten Schritt bieten RZ-Manager ihren Anwendern auch heute noch gesteigerte
Leistungsfähigkeit mit vorhandener oder sogar weniger Hardware an. Produkte von Vmware, Microsoft
oder die auf Open Source aufbauenden Module von Xensource helfen dabei, die bestehende
Hardwareinfrastruktur noch effizienter einzusetzen, indem Softwareapplikationen von der direkten
1:1-Zuordnung zur Hardware getrennt werden. Diesen Vorgang nennt man auch
Hardwarevirtualisierung.
Mit anderen Worten platziert man dabei zwischen Hard- und Software eine Art Mittelschicht. Diese
sorgt dafür, dass eine Applikation immer ausreichend Rechenleistung bereitgestellt bekommt, – aber
dennoch nicht fest an einen Server gekoppelt ist. Die Virtualisierungssoftware ermöglicht dem
RZ-Manager, unabhängig von der physikalischen Anzahl eingesetzter Server, beliebig viele so
genannte "virtuelle Server" zu erstellen. Einer Software werden dann entsprechend ein oder mehrere
virtuelle Server zugeordnet.
Aber was hat Virtualisierung nun zur Umweltfreundlichkeit eines Datenzentrums beizutragen? Es
ist ganz einfach: Virtualisierung ermöglicht eine bessere Auslastung der vorhandenen Ressourcen und
reduziert den Bedarf an weiterer Hardware. Mehrere Applikationen können einer physikalischen
Hardware zugeordnet werden, ohne sich dabei "in die Quere" zu kommen. Jeder Vorgang läuft auf einem
eigenen – wenn auch virtuellen – Server.
Und das ist noch nicht alles. Weitere Optimierung ergibt sich, wenn die Zuordnung von
Applikationen zu virtuellen Servern dynamisch, und zwar bedarfsabhängig, erfolgt. Nachdem jeder
virtuelle Server sein eigenes Betriebssystem einsetzt, ist es möglich, eine Hardwareressource
unterschiedlichen Applikationen mit verschiedenen Betriebssystemen zuzuordnen.
Auch dieser Nutzen hat jedoch seine Kehrseite. Je mehr virtuelle Server ein physikalischer
Server gleichzeitig zu bedienen hat, umso mehr Energie wird benötigt. Dennoch leistet
Virtualisierung einen großen Beitrag zum Energie sparenden Datenzent-rum. Tom Roberts, Leiter des
Datenzentrums von Tritity Information Services, gibt dafür ein gutes Beispiel: Vor dem Einsatz von
Virtualisierungstechnologie betrieb er 80 Prozent seiner rund 750 Server mit einer
durchschnittlichen Auslastung von fünf bis 15 Prozent. Heute vereint Roberts durch Virtualisierung
bis zu 18 Applikationen auf einem physischen Server.
Damit ist er längst kein Vorreiter mehr. Nach Schätzungen erwägen mehr als 50 Prozent aller
Unternehmen mit einem eigenen Datenzentrum den Einsatz von Virtualisierungstechnik. Dass
Virtualisierung inzwischen von allen ernst genommen wird, beweist auch die Tatsache, dass die
Chip-hersteller AMD und Intel seit neuestem Virtualisierung auf Halbleiterebene anbieten.
Experten sehen den nächsten großen Innovationsschritt im Management dieser virtuellen
Umgebungen: Schon bald wird man Serverfarmen als große virtuelle Pools von Computerressourcen
betrachten und virtuelle Server zu geeigneten großen oder kleineren virtuellen Maschinen
zusammenschließen. Während sich für Virtualisierungstechniken bereits ausreichend Kapital im Markt
befindet und hier Firmen nur noch selten mit Venture Capital ausgestattet werden, birgt der Bereich
der System-managementsoftware für virtuelle Umgebungen noch große Chancen für die
Wagniskapitalindustrie.
Viele RZ-Manager haben sich beim Zukauf von Rechnerleistung schon vor einiger Zeit vom
klassischen Mainframe verabschiedet und sich für Cluster-Systeme entschieden. Einen kostspieligen
Mainframe-Rechner kauft man jedoch nicht alle Tage. Aus diesem Grund blicken IT-Manager vor einer
solchen Großanschaffung immer gern in die Kristallkugel, um den Bedarf an Rechenleistung über eine
längere Zeit vorherzusehen. Der Kauf des falschen Systems wäre für sie fatal.
Mit den neuzeitlichen Cluster-Systemen ist diese Voraussicht weniger zwingend. Man kauft
Rechenleistung nach momentanem Bedarf und kann dann nach dem Motto "buy as you grow" jederzeit in
zusätzliche Nodes, also einzelne Server eines Clusters, investieren. Ein weiterer Vorteil der neuen
Systeme liegt darin, dass bei der Erweiterung eines Clusters wieder neueste Hardware eingekauft
werden kann. So altert ein Datenzentrum über die Zeit langsamer, ohne dass man gleich komplett
alles austauschen muss. Cluster-Hardware ist ein Commodity-Produkt und deshalb auch entsprechend
günstig von allen namhaften Hardwareherstellern zu beziehen.
Wer glaubt, ein Cluster-System sei keine ernst zu nehmende Alternative zum Mainframe, der irrt.
Gut die Hälfte der weltweit schnellsten Rechenanlagen ist heute aus einem Cluster von Servern
aufgebaut.
In Kombination mit Virtualisierung lassen sich mit diesen Systemen leistungsfähige
Recheneinheiten dynamisch zusammenstellen und nach Erledigung rechenintensiver Aufgaben auch
entsprechend wieder um- konfigurieren. All dies geschieht automatisch und in wenigen Minuten. Die
Vorteile eines effizienten Clustering-Konzepts werden besonders dann sichtbar, wenn zu bestimmten
Zeiten (etwa nach Arbeitsschluss) auch alle untätigen Desktop-Systeme dynamisch in ein solches
Cluster eingebunden sind.
Eine passende Software sorgt dafür, dass Prozesse zum richtigen Zeitpunkt starten und gebundene
Ressourcen unmittelbar nach getaner Arbeit anderen Prozessen oder Applikationen zur Verfügung
stehen. Hardwarehersteller bieten heute eigene Cluster-Management-Software an. Da viele IT-Manager
sich jedoch bei der Auswahl der geeigneten Hardware nicht gern an eine Adresse binden und heute
schon viele Cluster aus unterschiedlicher Hardware bestehen, ergibt sich ein klarer Bedarf für
herstellerübergreifende Cluster-Management-Systeme. Unabhängig von der darunter liegenden Hardware
sorgen diese dafür, dass Applikationen die benötigte Rechenleistung bereitgestellt bekommen.
Mit dem Produkt "Scali Manager" bietet zum Beispiel Scali aus den USA ein solches
herstellerunabhängiges Managementsystem an. Dass man durch intelligente Verwaltungssoftware noch
mehr Leistung aus einem Cluster-System herausholen kann, zeigt ein Vergleichstest auf TopCrunch
(www.topcrunch.org), wo ein mit Scali-Produkten ausgestattetes Cluster-System eine bis zu 21
Prozent verbesserte Leistungsfähigkeit gegenüber anderen Systemen zeigte.
Ein wesentlicher Beitrag zum "grünen Datenzentrum" der Zukunft besteht auch darin, das eigene
Datenzentrum nicht für temporäre Spitzenlasten auszulegen, denn so wird teure und Energie
verbrauchende Hardware verschwendet. Ein RZ muss so geplant sein, dass der tägliche Bedarf an
Rechenleistung gedeckt wird. Auch wenn es der Ehrgeiz eines jeden RZ-Managers verlangt, jede noch
so große Herausforderung im eigenen Rechenzentrum zu erledigen, ist es bisweilen ökonomisch
wesentlich sinnvoller, bei Bedarf so genannte On-Demand(-Utility-)Computing-Dienste in Anspruch zu
nehmen. Wie der Begriff Utility Computing bereits sagt, wird Rechenleistung dabei wie Strom aus der
Steckdose bezogen. Fast alle großen Systemhersteller (zum Beispiel Hewlett-Packard, IBM) bieten
heute Rechenleistung on-Demand, um dem RZ-Manager zu helfen, Spitzenlasten abzudecken.
Eine eindeutige Empfehlung, das heißt die eine Lösung für ein energiebewusstes Datenzentrum gibt
es gegenwärtig nicht. Die Art der Applikation und die Häufigkeit des Zugriffs auf Speichermedien
sind nur zwei Parameter von vielen, die einen erheblichen Einfluss darauf haben, ob etwa
Virtualisierung, Cluster-Computing oder On-Demand-Computing einen wesentlichen Beitrag zum
energiebewussten Datenzentrum leisten. Gewiss ist, dass RZ-Manager mit der richtigen Kombination an
Maßnahmen bereits heute über 50 Prozent Energieeinsparung erzielen.