Wachsende Datenmengen sind Realität. Laut IDC ist bis zum Jahr 2010 mit einer jährlichen Wachstumsrate von durchschnittlich über 50 Prozent zu rechnen. Bisher konnten IT-Manager ihre Storage- Kapazitäten aufgrund sinkender Festplattenpreise kostengünstig erweitern. So einfach diese Strategie auch ist, ihre Nachteile sind gravierend und mit Folgekosten verbunden: Stellplatz, Netzwerk-Ports, Stromanschlüsse, Klimatechnik und auch der Strom stehen in so gut wie jedem RZ nur begrenzt zur Verfügung.
Einer der größten Stromverbraucher und zugleich unentbehrlich ist die Klimatechnik. Konstante
Temperaturen tragen zur Stabilität der Systeme bei und verhindern Ausfälle der Komponenten durch
Überhitzung. Die Stromkosten einer effektiven Klimaanlage sind oft so hoch wie die der zu kühlenden
Systeme.
Die Kosten sind jedoch nur ein Problem von vielen. In einigen Fällen wird durch die hohe
Rack-Dichte so viel Hitze erzeugt, dass bestehende Kühlsysteme nicht mehr ausreichen. Lässt sich
das Kühlsystem aus Platzgründen nicht mehr ausbauen, ist das Ende der Wachstumsmöglichkeiten
vorläufig erreicht (siehe dazu auch den Beitrag auf Seite 38 und die Marktübersicht auf Seite
53).
Auch die Erhöhung der Speicherdichte hat die Kühlproblematik verschärft und den Strombedarf in
die Höhe getrieben. In einigen Datacentern machen die Energiekosten bis zu 30 Prozent der
Gesamtbetriebskosten aus.
Um wirkungsvoll Energie und Kosten zu sparen, ohne dass der IT-Service leidet, muss man generell
bei der Infrastruktur ansetzen. Für die Datenspeicher heißt das, ungenutzte Speicherkapazität
weitgehend vermeiden und vorhandene Speicherressourcen besser auslasten. Im Umfang reduzierte und
besser ausgelastete Maschinen und Platten im RZ senken automatisch den Energiebedarf und dämmen
nebenbei auch den Flächenverbrauch ein. Mithilfe eines Acht-Punkte-Plans lässt sich nicht nur eine
höhere Energieeffizienz erzielen, sondern auch die Komplexität und Kosten der Infrastruktur senken
und flexibler auf neue Geschäftsanforderungen reagieren.
Im Folgenden sind wichtige Aspekte dieser acht Punkte zur Reduzierung der RZ-Stromkosten
aufgeführt.
Allein die Server sind für bis zu 50 Prozent des gesamten Energieverbrauchs im RZ
verantwortlich. Ihre Konsolidierung und Virtualisierung ist ein wichtiger Schritt zur Reduzierung
des Stromverbrauchs. Nach Servern und Klimaanlagen sind Speichersysteme der drittgrößte
Stromverbraucher. In Umgebungen mit überwiegend Direct-Attached Storage beträgt der Storage-Anteil
am Stromverbrauch bis zu 27 Prozent. Hinzu kommen die niedrige Auslastung und das erschwerte
Management dieser Systeme – Faktoren, die die laufenden Betriebskosten erhöhen.
Deutliche Ersparnisse lassen sich durch die Einführung eines Speichernetzes erzielen. Durch die
Konsolidierung der Fileserver können Umgebungen kosteneffizient skaliert werden. Statt weitere
Server mit Vollausstattung zu implementieren, reicht es, die Kapazität des Storage-Systems
auszubauen. Die Betriebskosten bleiben dabei niedrig. Die Datenkonsolidierung auf einem
hochverfügbaren Speichersystem vereinfacht darüber hinaus den Fileservice und schafft mehr
Management-, Performance- und Kosteneffizienz.
Typische SATA-Festplatten nutzen bis zu 50 Prozent weniger Strom pro TByte als
Fibre-Channel-Disks gleicher Kapazität. Außerdem bieten sie die höchstmögliche Speicherdichte pro
Laufwerk. Auch dies trägt zur Reduzierung des Stromverbrauchs bei. Dank innovativer
Verfügbarkeitstechniken der Hersteller (zum Beispiel Netapp) hat sich SATA als alternative
Speichertechnologie für viele Enterprise-Anwendungen etabliert
In der Praxis kann das so aussehen: Ersetzt ein Unternehmen elf ältere Systeme mit einem
modernen kapazitätsstarken System, lässt sich die Kapazität um 16 Prozent erhöhen, der
Stromverbrauch um 81 Prozent senken und der Platzbedarf um 93 Prozent reduzieren.
SATA-Laufwerke als Storage-Basis fassen pro Laufwerk mehr Daten als ihr
Fibre-Channel-Äquivalent. Bei einem Plattenausfall sind folglich potenziell auch mehr Daten
verlustgefährdet. Schutz bietet etwa die Netapp-Technik RAID Dual Parity. Neben einer um 70 Prozent
höheren Speicherauslastung als RAID 10 schützt RAID-DP auch vor einem doppelten Laufwerkausfall,
während andere RAID-Level lediglich das Versagen eines einzigen Laufwerks verkraften.
Eine effiziente Auslastung der Speicherressourcen lässt sich auch erreichen, indem Daten von
teueren Primärspeichern auf kosteneffizienteren Sekundärspeicher migriert werden. Heute sind
Techniken auf dem Markt, die diese Prozesse automatisieren.
Industrieberichten zufolge liegt die durchschnittliche Storage-Auslastung bei 25 bis 40 Prozent.
Das heißt, 60 bis 75 Prozent der verfügbaren Kapazität bleiben ungenutzt. Damit wird nicht nur
Kapazität, sondern auch Energie verschwendet. Der Ansatz des so genannten Thin Provisionings löst
das Problem der inadäquaten Storage-Auslastung, deren Ursache die fixe Speicherzuordnung bei LUN
und Volume ist. Da Anpassungen schwierig sind und die Mengenentwicklung unsicher, wird
Speicherplatz oft sehr großzügig bemessen und in der Folge häufig nicht ausgeschöpft. Thin
Provisioning trennt die logische Repräsentation des Storage von den darunter liegenden physischen
Disk-Arrays, sodass sich Applikationen mehr Speicherkapazität zuweisen lässt, als tatsächlich
installiert ist. Da sämtliche Platten prinzipiell allen Daten-Sets in Form eines Speicher-Pools zur
Verfügung stehen, lassen sich ungenutzte Ressourcen heranziehen, um Performance ebenso wie
Auslastung bestens zu nutzen und gezielt einzusetzen. Physischer Speicher wird erst dann fix
belegt, wenn Daten tatsächlich geschrieben werden. Die Speicherauslastung lässt sich so um bis zu
50 Prozent steigern. Die bessere Auslastung der bestehenden Speicherressourcen verringert den
Bedarf an Festplatten und in der Folge auch den Bedarf an Stromversorgung und Klimatechnik.
Auch der Einsatz der Snapshot-Technik trägt zur Effizienz in der Datenhaltung bei, wobei die Art
des Snapshot-Designs über das Ausmaß entscheidet. Werden dabei inkrementell nur die Änderungen
gespeichert, erfordern Snapshot-Kopien besonders wenig Speicherplatz. Lässt sich eine Kopie der
Daten für mehrere Zwecke wie Backup, Compliance oder asynchrones Disaster Recovery einsetzen,
reduziert sich der Hardwareverbrauch. Bei herkömmlichen Methoden dagegen sind in der Regel
dedizierte Systeme für Backup, Compliance und Disaster Recovery nötig. In dieselbe Richtung weist
auch die Technik der Datendeduplizierung. Durch zahlreiche Kopien von Daten unnötig belegte
Kapazitäten auf Primär- und Sekundärspeichern werden damit wieder nutzbar. Vorhandener Storage wird
effizienter verwendet, und es müssen weniger Kapazitäten vorgehalten werden. Und damit lässt sich
eine einfache Gleichung aufmachen: weniger Kapazitäten und Systeme = weniger Stromverbrauch.
Test und Entwicklung machen zahlreiche Kopien von Daten-Volumes notwendig. Oft bedeutet dies
eine zusätzliche Belastung für die Storage-Infrastruktur. Mit Ansätzen wie Flex Clone lassen sich
mehrere Klone eines Daten-Sets erzeugen, die zunächst völlig ohne Speicherplatz auskommen. Erst
Änderungen am Klon ziehen einen Speichervorgang nach sich, der aber wiederum nur die Daten
betrifft, die jetzt vom übergeordneten Volume abweichen. Auf diese Weise können zahlreiche
individuelle, schreibbare Datenkopien zu einem Bruchteil des üblichen Speicherplatzes – und damit
Ressourcen schonend – zugewiesen werden.
Die Energieeffizienz der Speichersysteme sollte regelmäßig gemessen werden. Die gängigste
Methode misst die Watt pro TByte, was aber leider nicht die Effizienz der Systemnutzung
widerspiegelt. Die bessere Methode ist, den Energieverbrauch nach Watt pro nutzbare TByte zu
messen. Die Formel lautet: Der Verbrauch in Watt eines Systems wird durch die Gesamtkapazität in
TByte mal Systemauslastung geteilt. Der Prozentsatz an nutzbaren Disks bildet dabei die
Systemauslastbarkeit ab.
Entscheidungsträger, die die genannten acht Punkte beachten, können den Stromverbrauch von
Storage im RZ deutlich effizienter gestalten und dennoch künftigen Businessanforderungen und
Wachstumsstrategien gerecht werden. In diesem Sinn widersprechen sich eine Wachstumsstrategie und
das Einsparen wertvoller Ressourcen ganz sicher nicht.
Die IT-Industrie arbeitet an Techniken, die die Energieeffizienz verbessern. SATA-Laufwerke mit
höheren Kapazitäten, energieeffiziente CPUs und die Verwendung effizienter Netzteile gehören ebenso
dazu wie zum Beispiel Inline-Hardware-Datenkomprimierung, Datendeduplizierung und Flash
Memorys.
Bei aller Euphorie in Bezug auf die vorgestellten technischen Ansätze und bei allem Fortschritt
ist jedoch eines sicher: Die allein selig machende Lösung wird es auch in Zukunft nicht geben.
Stattdessen wird ein ganzes Paket an Möglichkeiten und Maßnahmen bereit stehen, die jede für sich
zur Reduzierung des Stromverbrauchs beiträgt – im Grunde gute Nachrichten für Anwender.