Energieeffiziente Technologien sind erheblich teurer als herkömmliche Lösungen. So gibt es auch Hersteller, welche die Energiesparwelle ausnutzen, um Lösungen anzubieten, die langfristig keine Kosten einsparen. Der Grund: Die Anschaffungskosten der neuen Geräte werden nicht durch die geringeren Energiekosten ausgeglichen oder übertroffen. Daher sollten Verantwortliche bestimmte Faktoren berücksichtigen, um zu bestimmen, ob eine energieeffiziente Technologie und ein Konsolidierungsprojekt dem Unternehmen Geld spart:
Das dynamische Datacenter
Die heutigen Rechenzentren müssen mit veränderten Rechenleistungsanforderungen und Anwendungscharakteristiken zurechtkommen. Deshalb sollten die Verantwortlichen Technologien prüfen, die dazu beitragen, ein dynamisches Datacenter zu schaffen. Dies bedeutet: Energie, Kühlung, Rechenleistung und Speichervorgänge werden nur dort und dann bereitstellt, wo und wann diese gebraucht werden. Nur so lässt sich die Energieeffizienz steigern.
Energie: Um die Energieeffizienz im Datacenter zu erhalten, benötigt das Rechenzentrum Technologien (wie CPU-Stepping und variable Frequenzlaufwerke), die den Energieverbrauch der stromabhängigen Komponenten verringern.
Kühlung: Ständig werden Server hinzugefügt oder ersetzt. Diese Änderungen beeinflussen die thermo-dynamischen Eigenschaften der Räumlichkeiten. Die Kühlung muss mit diesen Änderungen zurechtkommen, um die Effizienz zu maximieren.
Rechenleistung: Die Technologie der Compute-Server-Virtualisierung ist einer der Hauptgründe, weshalb das dynamische Datacenter von heute existiert. Aber das ist noch nicht das Ende der Geschichte. Die Virtualisierung hat bewegliche Lasten zur Folge. Das heißt, Compute-Server laufen nicht die gesamte Zeit auf Volllast, besonders, wenn zum Beispiel ein Rechner, auf dem zuvor 25 VMs liefen, nunmehr nur noch für zwölf verantwortlich ist. Datacenter sollten in die Technologie des CPUSteppings investieren, um den Energiebedarf der CPUs zu verringern.
Speicher: Keine gute Praxis ist die Überschätzung des Speicherkapazitätsbedarfs, da dies zu leer laufenden Laufwerken führt. Speichertechnologien wie Thin Provisioning sollten in Erwägung gezogen werden, um bei Bedarf nahtlos und dynamisch Speicherkapazität hinzufügen zu können.
Management: Ein Management-Layer orchestriert die einzelnen Teile des Datacenters zu einem einzigen großen Organismus, um eine optimale Energieversorgung sicher zu stellen. Leider ist dies ein Bereich, in dem die Hersteller noch keinen branchenunterstützten Standard geschaffen haben, um für eine bessere Interoperabilitiät zu sorgen. Einige Hersteller wie HP, IBM und Dell bieten Technologien im Bereich Compute-Server und Storage-Management an, aber diese interoperieren nicht. Kunden sollten beim Kauf von Management- Produkten verlangen, dass diese interoperabel sind und Open-Management- Standards entsprechen.
Für die Zukunft gerüstet
Die von Green Grid vorgeschlagene DCPE- (Datacenter Performance Efficiency) und Suns Swap-Metrik (Space, Watts and Performance) sind gegenwärtig sinnvolle Metriken, um die Energieeffizienz zu berechnen. Swap ist ein guter erster Schritt auf Serverebene, aber für das Netzwerk-Storage, für netzwerkunterstützende Geräte, für Stromversorgungs- und Kühlungsanlagen besteht noch ein großer Bedarf an neuen Metriken.
IT-Administratoren müssen lernen, dass ein System, nur weil es effektiv arbeitet, nicht notwendigerweise auch effizient ist. Man stelle sich etwa einen Server vor, der eine Aufgabe erledigt, die kein anderer Server erledigen kann. Dabei ist dieser Server aber sehr ineffizient, was den Energieverbrauch betrifft. Seine Energieeffizienz spielt keine Rolle, weil er einen nützlichen Beitrag leistet. Ziel sollte es jedoch sein, energieeffizient und effektiv zu arbeiten. Dafür sollten neben entsprechender Hardware auch Automatisierungstechnologien in Betracht gezogen werden.
Autor
Andrew Kutz ist Analyst bei der Burton Group.