2007 geriet dank zahlreicher Kampagnen zum regelrechten "Green-IT"-Jahr, und auch die CeBIT stimmte sich ganz auf Grün ein. Selbst wenn manch einem der Verdacht kam, dass hinter dem omnipräsenten Leitmotiv vor allem die Marketingstrategen stecken, so ist doch unbestritten, dass etwas zur Verbesserung der IT-Ökobilanz getan werden muss. Doch welche Maßnahmen sind zielführend?
Es brummt in den Serverfarmen der Industrienationen. Allein 2007 wurden nach Angaben von IDC
weltweit 281 Exabyte – sprich: 281 Milliarden GByte – an digitalen Informationen erzeugt. Dies sind
276 EByte mehr als noch im Jahr 2003. Damals lag die weltweite Datenmenge nach Berechnungen der
University of California bei 5 EByte – und darin waren sogar nicht-elektronische Informationen wie
analoge Radiosendungen und ausgedruckte Büromemos enthalten.
Diese Datenmengen zu verarbeiten kostet Strom: Rund 1,2 Prozent des weltweiten Strombedarfs
entfällt nach Schätzungen inzwischen auf den IT-Sektor. Dies entspricht der Produktionsleistung von
rund 18 Kernkraftwerken. Manche Analysten sprechen der IT sogar zwei Prozent des weltweiten
Energiebedarfs zu. Jedenfalls ist inzwischen auch dem Laien bewusst: RZs gehören durch Abwärme und
enormen Stromverbrauch zu den veritablen Klimakillern unserer Zeit, in ihrer Wirkung vergleichbar
zum Beispiel mit der Luftfahrtindustrie.
Neben dem Einsatz von Ökostrom setzen die meisten aktuellen "Green-Computing"-Initiativen auf
stromsparende oder abwärmereduzierte Komponenten. Der Einsatz von Techniken wie MAID (Massive Array
of Idle Disks), die in den Energiesparmodus wechseln, wenn keine Benutzeraktivität vorliegt,
reduziert den Strombedarf ebenso wie die so genannten "80-plus"-Netzteile, die eine maximale
Effizienz von über 80 Prozent erreichen. Auch Multikernprozessoren stehen auf der grünen
Checkliste: Diese neuen Chips erzeugen durch die niedrigere Taktfrequenz der einzelnen Kerne im
Vergleich zu konventionellen Einzelkernchips weniger Abwärme.
Allerdings hat die "grüne Hardware" auch Nachteile: Da viele Neuentwicklungen derzeit noch in
den Kinderschuhen stecken und laufend verbessert werden, müssen die Unternehmen, die sich
Kostenvorteile durch sparsame Technik sichern wollen, kontinuierlich weiter investieren. Dies
belastet wiederum die Ökobilanz, da jede Neuproduktion von Hardware Energie wie auch Ressourcen
verschlingt. Außerdem entstehen bei einer IT-Geräteproduktion umweltschädliche Abfallprodukte.
Zudem stellt sich die Frage, ob die Optimierung von Hardwarekomponenten überhaupt den
erforderlichen Wirkungsgrad entfalten kann.
Denn dem RZ-seitig gespeicherten Datenaufkommen wird für die nächsten Jahre ein steiles Wachstum
prognostiziert – angetrieben beispielsweise durch neue, immer präzisere Erfassungs- und
Darstellungsmethoden in datenintensiven Disziplinen wie Medizin, Astronomie oder Meteorologie; oder
durch den flächendeckenden, systematischen Einsatz von RFID-Produktetiketten in der
Konsumgüterindustrie, der komplett neue Datenlawinen erzeugen wird; ein weiterer Faktor sind nicht
zuletzt auch die IT-bestückten Privathaushalte.
Die jüngste Studie von IDC geht bei einem erwarteten jährlichen Wachstum von 60 Prozent davon
aus, dass die Datenmenge des "digitalen Universums" bis 2011 rund 1,8 Zettabyte (also rund 1800
EByte oder 1,8-mal 270 Bytes) erreichen wird.
Es ist deshalb dringend erforderlich, beim Thema Green IT über die reine Optimierung von
Hardwarekomponenten hinauszugehen und beispielsweise bei der Frage anzusetzen, wie und wo welche
Daten eigentlich gespeichert werden. Zu fragen ist auch, wieviel Primärspeicher in den
Rechenzentren wirklich erforderlich ist.
Daten müssen im Tagesgeschäft unmittelbar zur Verfügung stehen – in einer Versicherung, einem
Industriekonzern, einem Speditionsunternehmen oder einer Unternehmensberatung. Der Anspruch ist
klar: Der Computer muss die benötigten Daten sofort – also innerhalb von Sekunden, besser von
Sekundenbruchteilen – auf den Bildschirm bringen. Doch wird eben nur ein kleiner Teil der
gespeicherten Daten regelmäßig benutzt. Eine von Bridgehead Software durchgeführte Studie
beispielsweise brachte das Resultat, dass die Anwender auf 80 Prozent des Datenbestands in einem
durchschnittlichen RZ innerhalb der zurückliegenden 90 Tage nicht zugegriffen haben.
Es wäre also auch aus Nutzersicht vollkommen legitim, bei Daten, die man so selten benötigt,
eine minimale Verzögerung in Kauf zu nehmen. Dies bringt den Vorteil mit sich, dass die IT diese
Daten statt auf schnellen, direkt angeschlossenen Festplatten (Primärspeichern) auf
kostengünstigeren sekundären optischen Speichermedien oder Magnetbändern lagern kann. Diese
verursachen im Vergleich zur Festplatte fast keine Betriebs- und Wartungskosten, sind aber dennoch
über Roboter automatisiert ("Nearline") im Zugriff. Natürlich bedingt dies leicht verzögerte
Zugriffsgeschwindigkeiten – was der Anwender im Tagesgeschäft aber kaum bemerken wird, da er diese
Daten in der Regel gar nicht braucht.
Wenn Unternehmen 80 Prozent ihrer Daten nicht mehr wie bisher auf Festplatten speichern würden,
dann bedeutet dies im Umkehrschluss, dass 80 Prozent der heute verwendeten teuren,
energieintensiven Primärspeicherkomponenten frei würde. Die Unternehmen könnten dadurch den
Großteil der entsprechenden Betriebs- und Wartungskosten einsparen.
Doch damit nicht genug: Die zitierte Studie lieferte noch eine weitere erstaunliche Zahl: Ein
beträchtlicher Anteil der Daten (zirka 60 Prozent) wird nur einmal angefasst – und dann nie wieder.
Somit kann die IT-Abteilung Daten, die einen entsprechend längeren Zeitraum nicht mehr genutzt
wurden, auch komplett offline in einem physisch getrennten Datentresor auf Magnetbändern oder
optischen Platten speichern, sodass selbst die geringen Betriebs- und Wartungskosten der
Nearline-Archivierung entfallen und praktisch keine laufenden Kosten mehr entstehen.
Ein Großteil des Strombedarfs in Rechenzentren ließe sich also durch intelligentes
Speichermanagement eingesparen. Fakt ist jedoch, dass die Betreiber von Rechenzentren – Webhoster,
Großunternehmen und Mittelständler – nur selten eine konsequente Archivierungsstrategie verfolgen.
Ein Grund könnte der enorme Preisverfall bei Primärspeicherkomponenten sein. Angesichts der
günstigen Einkaufskonditionen fiel das Nachrüsten von Primärspeicher sehr leicht. Dass durch eine
entsprechende Archivierungsstrategie hohe Betriebskosten gespart und die Ökobilanz des
Rechenzentrums entscheidend verbessert werden könnte, war den Verantwortlichen in der Regel nicht
bewusst.
Sicherlich ein weiterer Grund: Die meisten IT-Entscheider in den Unternehmen haben sich gerade
erst mit dem Gedanken der Datensicherung als Notfallvorsorge angefreundet – sind aber in ihrer
Lernkurve in der Regel einfach noch nicht beim Thema Langzeitarchivierung angekommen. Beim einen
oder anderen schwang möglicherweise auch die Assoziation mit Mikrofichearchiven oder Schränken
voller CD-ROM-Stapel und die Erinnerung an unhandliche, mühsame Recherchen mit.
Hinter der Archivierung steht natürlich auch der Gesetzgeber, dessen "Grundsätze zum
Datenzugriff und zur Prüfbarkeit digitaler Unterlagen" (GDPdU) und "Grundsätze ordnungsmäßiger
DV-gestützter Buchführungssysteme" (GoBS) unter anderem die unveränderte und unveränderbare
Aufbewahrung der Dokumente sowie ihre schnelle Wiederauffindbarkeit und Darstellung im
Originalzustand fordern.
Klassische Backup-Lösungen werden diesen Anforderungen nicht ausreichend gerecht: Denn
klassische Backups reichen in der Regel nur ein paar Monate in die Vergangenheit zurück. Umgekehrt
bieten leistungsfähige Archivierungslösungen heute die Möglichkeit, neben der Langfristarchivierung
auch das Notfall-Backup mit abzudecken. Anders formuliert: Ein Backup kann zwar keine
Archivierungslösung ersetzen, ein Archiv hingegen kann sehr wohl die Aufgaben eines Backup-Systems
übernehmen.
Dies ist ein entscheidendes Argument insbesondere für Unternehmen mittlerer Größe: Denn diese
könnten durch die Einsparung der Backup-Lösung und der damit verbundenen Hardware- und
Wartungskosten des Primärspeichers bereits einen guten Teil der Archivierungslösung finanzieren. So
hätten auch mittelständische Unternehmen die Möglichkeit, die Konformität ihrer IT zur GDPdU und
GoBS zu gewährleisten und dabei auch noch ökologischen Anforderungen gerecht zu werden. Die
Backup-Prozesse selbst würden dabei ebenfalls optimiert: Viele Backup-Systeme laufen heute Tag und
Nacht, um die enormen Primärspeicher für den Notfall abzusichern – was nicht erforderlich wäre,
wenn der größere Teil der Datenmengen auf Sekundärspeichern läge.