Energieeffiziente Rechenzentren

Intelligente Software statt mehr Hardware

19. Februar 2008, 23:54 Uhr | Tom Bishop/wg Tom Bishop ist Chief Technology Officer bei BMC.

Das Schlagwort "Grüne IT" wird die Unternehmen auch 2008 nicht loslassen. Aber was bedeutet "grün" in der IT genau? Für RZ-Betreiber bedeutet es ein Umdenken - weg von einer Überversorgung mit Rechnern hin zur effektiven Auslastung der Systeme. IT-Hersteller sind in der Pflicht, intelligente Software bereitzustellen, die brach-liegende Systeme aufspürt und Aufgaben vorausschauend verteilt.

Raue Zeiten für Rechenzentrumsbetreiber: Zu ihrer ständigen Sorge, mit weniger Ressourcen mehr
Leistung erbringen zu müssen, hat sich eine weitere, gewaltigere dazugesellt: Viele Rechenzentren
stoßen in absehbarer Zeit an ihre Kapazitätsgrenzen – sowohl bezüglich der Leistung als auch der
Kühlungskraft. Trotzdem müssen sich Rechenzentren an die steigenden Anforderungen von
Business-Services anpassen, also mehr Speicher und Ressourcen zur Verfügung stellen. Besorgnis
erregen auch die hohen Energiekosten, die mittlerweile einen signifikanten Anteil an den IT-Kosten
darstellen, sowie die Raumknappheit.

RZs als Klimasünder

Zusätzlich zum Platz- und Kostenproblem macht seit Neuestem auch das Image als Klimasünder den
IT-Professionals zu schaffen. Denn angesichts der aktuellen Lage ist durchaus mit
Umweltschutzauflagen für Rechenzentren zu rechnen. Mittlerweile steht fest, dass der Anteil der RZs
an den weltweiten Emissionen erstaunlich hoch ausfällt: Auf die Data Centers in den großen
europäischen Industrienationen entfallen vier bis fünf Prozent des Energieverbrauchs (Zahlen von
PNA, basierend auf Schätzungen des RZ-Gesamtenergieverbrauchs in Großbritannien). Ein
durchschnittliches Data Center eines europäischen Großunternehmens beispielsweise verbraucht für
seine Server zirka 7 MW. Dabei wandeln die Server 91 Prozent der verbrauchten Energie lediglich in
Wärme um, nutzen also nur neun Prozent für Verarbeitungsfunktionen, so eine Untersuchung der PNA
vom Dezember 2006.

Bei den heutigen Wachstumsraten wird der Bedarf an Rechenzentren in der EU bis 2010 um
schätzungsweise 25 bis 45 Prozent steigen. Dies bringt einen höheren Energiebedarf pro Quadratmeter
mit sich, solange es keine einschneidenden Fortschritte in der Prozessortechnik gibt. Denn die
Rechenleistung wird immer dichter gepackt auf dem gleichen Raum untergebracht. Deshalb kann die bis
2010 benötigte Kühlungsleistung pro Quadratmeter noch schneller zunehmen, solange die
Wärmeentwicklung der Prozessoren pro Einheit an Verarbeitungsleistung nicht sinkt.

Erster Schritt: Messung

Zeit zum Umdenken: Gibt es nicht effizientere Methoden, den steigenden Leistungsanforderungen
der Unternehmen zu begegnen, als mit immer mehr neuen Rechnern? Wie wäre es statt dessen mit
schlauerer Software? Eine Software, die die unternehmensweite IT dahingehend untersucht, ob Systeme
nicht bei vollem Stromverbrauch nur halbe Leistung bringen und bestimmte Lösungen nur "
Luxusbeigaben" und tatsächlich kaum erforderlich sind? Die ermittelt, wo sich der Bedarf an Kühlung
reduzieren, wo der Stromverbrauch herunterfahren lässt?

Der erste Schritt auf dem Weg zu einem "grünen" – und das heißt vorrangig: energieeffizienten –
Rechenzentrum besteht darin, aufzuspüren, wo sich im Unternehmen die Energiefresser verstecken.
Dies können zum Beispiel alte Server sein, die viel zu viel Strom verbrauchen – sei es durch den
laufenden Betrieb oder durch überdurchschnittlich hohe Kühlungsanforderungen. Auch unausgelastete
Server verbrauchen sinnlos Energie und geben unnötig Wärme ab. Hier ist es ein Leichtes, den
Stromverbrauch zu reduzieren und so die operativen Kosten herunterzuschrauben.

Selbst wenn es anfangs etwas mühsam ist: Es empfiehlt sich, einen Katalog mit Messdaten
aufzustellen. Dieser gibt Auskunft darüber, welches System wieviele Ressourcen verbraucht und
welchen Mehrwert es dafür bietet. Oft kommen dabei erstaunliche Ergebnisse zum Vorschein. So nutzen
beispielsweise die meisten Unternehmen die Applikation für die monatliche Lohnabrechnung nur an
drei bis vier Tagen im Monat – die übrige Zeit erhöht sie nur die Betriebskosten.

Leicht lässt sich diese Verschwendung durch sinnvolle Konsolidierung im Unternehmen umgehen. So
ist häufig auch das Management der übrigen Personaldaten wie Urlaubs- und Krankheitsdaten über die
gleiche Anwendung zu steuern.

Automatisiertes Monitoring

Der Weg zur optimalen Echtzeitumgebung führt über eine Anpassung der Systemauslastung. Ziel ist
die Implementierung einer automatisierten, prozessorientierten Feedback-Schleife, die die
Auslastung der Systeme überwacht und Hinweise gibt, wo und wie sich der Energieverbrauch reduzieren
lässt.

So muss die Auslastung jedes Systems mittels einer unternehmensweiten Monitoring-Software
festgestellt und laufend überwacht werden. Das Monitoring muss die Informationen in Echtzeit
liefern und sie in einem Protokoll aufbereiten. Aufgrund der Ergebnisse, die dieses Monitoring
liefert, lässt sich die Systemauslastung anpassen und der Energieverbrauch entsprechend den
tatsächlichen Anforderungen reduzieren. Dieser neue Status ist nun ebenfalls zu überwachen, und bei
jeder Änderung der Systemauslastung sind die Ressourcen neu zu verteilen. Es entsteht ein
Kreislauf, der automatisiert und prozessorientiert abläuft und einen flexiblen, Ressourcen
schonenden IT-Einsatz ermöglicht.

Server als Energiefresser

Die Serverauslastung variiert je nach Servertyp: Bei Wintel-Servern liegt sie oft nur bei zwei
Prozent, im Fall von Linux-Servern bei etwa 20 bis 30 Prozent. Main-frames hingegen kommen auf eine
durchschnittliche Nutzung von 70 Prozent. Die meisten Rechenzentren betreiben letztlich zu viele
Commodity-Server, die im Leerlauf sinnlos Strom verbrauchen, Wärme abgeben und die CO2-Emissionen
nach oben treiben. Ziel muss eine rationelle Nutzung der Server und damit eine Reduktion der
Serveranzahl sein.

Der Weg zum Erfolg führt dabei über die Konsolidierung von Ressourcen, seien es Server oder
ganze Rechenzentren. Als Mittel dienen diverse Formen der Virtualisierung, also eine intensivere
Nutzung vorhandener Server mittels virtueller Instanzen. Des Weiteren sollte man dafür Sorge
tragen, dass alle Server mit allen Anwendungen kompatibel und daher austauschbar sind. Es sollte
also irrelevant sein, welche Anwendung auf welchem Server läuft. Es gilt, deren Nutzung
hinsichtlich des Anwendungsportfolios zu optimieren.

Dynamisches Anwendungsmanagement

Darüber hinaus bedarf es eines dynamischen Schedulings. Hier gibt es mehrere Möglichkeiten. Die
kostengünstigste und einfachste ist das bedarfsgerechte Hosting mehrerer Umgebungen auf einem
Server oder Server-Cluster unter Verwendung einer Virtualisierungssoftware, entweder vom
Systemhersteller oder als Paket von einem Drittanbieter. Die Virtualisierung erlaubt die Ausführung
mehrerer Betriebssysteme und Anwendungen in verschiedenen Partitionen des gleichen physischen
Servers. Das spart Hardware und Platz im Rechenzentrum und senkt den Energieverbrauch wie auch den
Kühlungsbedarf.

Eine andere Methode: Die Server werden je nach gerade verfügbarer Kapazität den Anwendungen
dynamisch als Host zugeordnet. Diese Möglichkeit beruht auf Entwicklungen aus dem Grid-Computing,
bei dem ganze Umgebungen dynamisch auf einem Server oder einer Servergruppe geladen und die
gewünschten Anwendungen ausgeführt werden. Damit dies reibungslos abläuft, ist beim Job-Scheduling
ein intelligentes Management erforderlich. Denn es muss gewährleistet sein, dass frei werdende
Ressourcen im Hinblick auf Verarbeitungsleistung, Speicher sowie Ein-/Ausgabezugriff für den
nächsten anstehenden Job geeignet sind.

Auf das Systemmanagement der Zukunft wartet eine neue Aufgabe: die Serverökonomie. Ziel ist es,
Anwendungen so zu verwalten, dass Batch-Jobs und interaktive Echtzeitjobs in ein und denselben
Job-Stream einfließen. Ziel ist es, die Arbeitslast dadurch auf weniger Server zu verteilen, sodass
insgesamt weniger Prozessoren notwendig sind. Auch die Zahl der Backup-Server im
Hot-Standby-Betrieb soll sich auf diese Weise minimieren lassen. Dies erfordert ein Dienstprogramm
für das Systemmanagement, bei dem moderne Funktionen dem Systemoperator die Neukonfiguration
erleichtern, ergänzt durch ein ausgeklügeltes Dashboard, auf dem der aktuelle Energieverbrauch samt
historischer Zahlen abzulesen ist. Das wichtigste Instrument ist eine laufende Bewertung der
Optimalkonfiguration im Sinne des Energiesparens. Für ein funktionierendes Energiemanagement
benötigen künftige Systeme unter Umständen Komponenten zur Messung des Stromverbrauchs mithilfe von
Sensoren auf Hauptplatinen- oder Serverebene, und zwar unter Verwendung von SNMP.

Rechtzeitige Umstellung

Unternehmen sollten sich so schnell wie möglich den veränderten Gegebenheiten anpassen. Es ist
nur noch eine Frage der Zeit, bis Regierungen Klimaschutz in Rechenzentren zur Pflicht machen.
Davon abgesehen erleichtern die neuen Softwarelösungen die Verwaltung des dschungelartig
gewachsenen Hardwarebestands und stehen ganz im Zeichen eines umfassenden
Business-Service-Managements.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+