Rechenzentren machen sich fit für die Zukunft

Grüner, flexibler, effizienter

31. März 2014, 7:00 Uhr | Bernd Haustein, Hauptabteilungsleiter Produkt-Management IT bei Rittal in Herborn. Kerstin Ginsberg, dort PR-Referentin IT, www.rittal.de./jos

Unter welchen Gesichtspunkten Rechenzentren operieren, hängt nicht nur von den Anforderungen der IT ab. Auch zahlreiche Vorgaben der Infrastruktur bestimmen die Rahmenbedingungen, nach denen Planer und Betreiber schon heute für die Zukunft vorsorgen müssen - trotz vieler Unwägbarkeiten."Prognosen sind schwierig, vor allem, wenn sie die Zukunft betreffen." Was in diesem geflügelten Wort anklingt, würden Betreiber und Planer von Rechenzentren dennoch gerne können, denn eine heute falsch getroffene Investitionsentscheidung kann kostspielige Auswirkungen in der Zukunft haben. Einfach ist das Kaffeesatzlesen jedenfalls nicht. 2009 ging beispielsweise die Harvard Business Review davon aus, dass schon 2012 nur noch 80 Prozent der Unternehmen ein eigenes Rechenzentrum betreiben würden. Der Rest sollte sich in Cloud und Wohlgefallen aufgelöst haben. Die aktuelle Situation sieht anders aus, der Trend bewegt sich eher weg von Outsourcing, Hosting und Cloud. Oracles Studie "Next Generation Data Center Index" ergab für 2013, dass sich der Anteil von Unternehmen, die ausschließlich auf unternehmensinterne Rechenzentren setzen, seit der letzten Befragung von 45 Prozent auf 66 Prozent erhöht hat. Und der Anteil der Unternehmen, die innerhalb der nächsten zwölf Monate in ein neues Rechenzentrum investieren wollen, ist von 22 auf 26 Prozent gestiegen. Das baldige Ende von Rechenzentren in den Unternehmen ist wohl ebenso unwahrscheinlich wie das papierlose Büro oder Videotelefonate als Ersatz für Businessreisen. Dies soll natürlich nicht bedeuten, dass die Situation in den Rechenzentren statisch und unverändert bleibt. Ganz im Gegenteil: Zwar werden die meisten Firmen über kurz oder lang Cloud-Angebote wahrnehmen, doch im Hinblick auf Befürchtungen, dass Informationen bei großen, zentralisierten Anwendern nicht vor dem Einblick Dritter sicher sein könnten, wird es auch eine immer größere Zahl von Anwendungen geben, die man komplett unter eigener Kontrolle halten will. Und dann gibt es noch branchenspezifische Entwicklungen wie Big Data, die dafür sorgen, dass Rechenzentren immer mehr Datenkapazität und Rechen-Power liefern werden müssen. Was sich nicht ändert, sind starke ökonomische Zwänge. Die Budgets wachsen - wenn überhaupt - nur minimal und Rechenzentrumsbetreiber müssen jede Möglichkeit nutzen, vorhandenes Potenzial zu optimieren.   Gesunkener Stromverbrauch Energieeffizienz steht ganz oben auf der Prioritätenliste, auch weil sie gesellschaftspolitisch ein sehr relevantes Thema darstellt. Energieeffizienz ist extrem vielschichtig und reicht von optimierten Betriebsmodellen über stromsparende Kühlungsvarianten bis hin zur Verwendung effizienter Komponenten in Server-Netzteilen. Rechenzentrumsbetreiber wissen dies offensichtlich: Nach dem CDW Energy Efficient IT Report 2012 haben 46 Prozent der Studienteilnehmer auf Low-Power-Prozessoren umgerüstet, 44 Prozent haben ihre Altgeräte durch Energy-Star-kompatible Geräte ersetzt, und 31 Prozent haben ihr Netzwerkequipment auf energieeffiziente Komponenten umgestellt. Für 43 Prozent der befragten IT-Verantwortlichen sind Energieeinsparungen ein wesentlicher Treiber für Konsolidierungsinitiativen im Rechenzentrum. Noch vor zwei Jahren waren es nur 34 Prozent. Solche Bestrebungen zeigen Wirkung. Während Analysten noch vor einigen Jahren einen stark ansteigenden Stromverbrauch für Rechenzentren erwarteten, sieht die Situation mittlerweile anders aus. Nach einer Berechnung des Borderstep-Instituts aus dem Mai 2012 lag der Stromverbrauch von Servern und Rechenzentren in Deutschland im Jahr 2011 bei 9,7 Terawattstunden (TWh). Damit liegt er um rund vier Prozent unter dem Strombedarf des Jahres 2008 - trotz steigender Zahl der installierten Server. Der Stromverbrauch liegt um etwa 1,4 TWh unter dem Verbrauch, mit dem im "Business as usual"-Szenario gerechnet worden war.   PUE zeigt Einsparerfolge Die Fortschritte in der Effizienz lassen sich auch am Power-Usage-Effectiveness-Wert (PUE) ablesen. In ihrem Report zur Energieeffizienz von Rechenzentren aus dem Jahr 2007 erklärte die Environmental Protection Agency (EPA), dass 2011 mit einem durchschnittlichen PUE von 1,9 zu rechnen war. Best-Practice-Anwender sollten einen PUE von 1,3 erreichen und absolute State of the Art war 2011 ein PUE von 1,2. Doch beim letztjährigen European Code of Conduct for Datacentres erhielt Google einen Preis für das neue Rechenzentrum in Belgien, das mit einem PUE von nur 1,1 auskommt. Rittal garantiert für sein neues modulares standardisiertes Rechenzentrum Rimatrix S einen PUE von bis zu 1,15, wenn die Server-Module zusammen mit einer hauseigenen Kühleinheit arbeiten. Die Verbesserungen finden auf allen Ebenen statt, von der Mikroarchitektur der Server bis hin zur Standortwahl der Rechenzentren selbst. So nutzte ein 1-GByte-DDR2-Arbeitsspeicher mit 60nm-Strukturen bis zu 102 Watt Leistung, während aktuelles DDR3 RAM mit 4 GByte und 30nm-Strukturen nur noch 14 Watt beansprucht. Das Gleiche gilt für die Netzteile, bei denen Anwender immer häufiger auf 80+-Geräte achten, die - abhängig von der Güte - einen Wirkungsgrad zwischen 80 und 92 Prozent aufweisen können. Doch weil die Stromversorgung der Server naturgemäß großen Einfluss auf den Stromverbrauch hat, hören dort die Entwicklungen nicht bei besonders effizienten Netzteilen auf. In der Branche gibt es mittlerweile einen deutlich wahrnehmbaren Trend dahin, die Server über Gleichstrom zu versorgen. Server-Hersteller Hewlett-Packard beispielsweise schätzt, dass der Wirkungsgrad bei der zentralisierten Verteilung von Gleichstrom um bis zu zehn Prozent höher liegt als bei Wechselstrom. Hinzu kommt, dass bei Einsatz von Gleichstrom Wechselrichter in den Netzteilen und unterbrechungsfreien Stromversorgungen überflüssig sind. Betrachtet man den Weg des Stroms von der Erzeugung bis zur Buchse auf dem Motherboard des Servers, wird er nämlich recht häufig gewandelt, jeweils mit mehr oder weniger hohen Verlusten. Generatoren im Elektrizitätswerk oder in einer Windturbine produzieren in der Regel Wechselstrom, so gelangt er auch über die Überlandleitung. Nach der Transformation in geringere Spannungen läuft er meist in die zentrale unterbrechungsfreie Stromversorgung des RZs, wo aus Wechselstrom Gleichstrom entsteht, um die Akkus zu laden und die Schaltungstechnik zu versorgen. Aus der nun unterbrechungsfreien Gleichspannung entsteht eine künstlich erzeugte Wechselspannung, die dann zum Netzteil des Servers weitergeleitet wird. Dort sorgen wieder Gleichrichter dafür, dass am Motherboard 3,3 Volt, 5 Volt und 12 Volt Gleichspannung ankommen. Bei Hewlett-Packard glauben die Experten, die Anschaffungskosten um bis zu 15 und den Bedarf an physischer Stellfläche um bis zu 25 Prozent reduzieren zu können, wenn man die Server direkt mit Gleichspannung versorgt. HP bietet Netzteile für Gleichstrom an, die in puncto Formfaktor mit den aktuellen Modellen übereinstimmen. Allerdings sind nur neue Server-Modelle für die Gleichstromnetzteile zertifiziert, eine Nachrüstung ist also praktisch nicht möglich. Bei anderen Herstellern sieht die Situation ähnlich aus, Gleichspannungsversorgung ist, wenn überhaupt, nur für ganz neue Systeme verfügbar. Ein weiteres Problem stellt die Stromführung dar. Gleichspannung erfordert vergleichsweise hohe Ströme bis hin zu den Verteilersystemen am Server-Schrank. Dem stehen manchmal bauliche Hindernisse wie Platzbedarf und Brandschutzvorschriften entgegen. Dennoch bleibt die Versorgung mit Gleich- anstelle von Wechselstrom eine reizvolle Variante, die aber auf breiter Ebene erst in späteren Generationen von Rechenzentren ihr Potenzial ausspielen wird.   Weg vom 19-Zoll-Format? Wenn man schon die Netzteile verändert, warum dann nicht gleich die Server selbst? Große Server-Hersteller und potente Anwender wie Facebook experimentieren damit, Server aus dem klassischen 19-Zoll-Format herauszulösen. Ein Weg dahin ist, Motherboards komplett zu kapseln und von einem nicht-leitenden Kühlmittel umfließen zu lassen. CPU, RAM, Netzwerk- und Grafikchips geben ihre Wärme direkt an das Kühlmittel ab, zwei Ventile am Gehäuse sorgen für Zu- und Abfluss der Flüssigkeit. Speziell gestaltete Racks nehmen die Module auf und stellen die elektrischen und hydraulischen Verbindungen sicher. Radikale Konzepte wie dieses benötigen jedoch standardisierte, homogene Umgebungen mit extrem hoher Skalierung, damit sich die Kosten in einem überschaubaren Zeitrahmen amortisieren. Das Open-Compute-Projekt setzt ebenfalls am 19-Zoll-Format an. Dabei kommen Module mit 21 Zoll Breite zum Einsatz, und die größere Fläche dient dazu, die Server thermisch besser zu designen. Das Außenmaß der Schränke bleibt dennoch identisch mit dem von 19-Zoll-Racks, sodass im Rechenzentrum kein zusätzlicher Platz eingeplant werden muss. Darüber hinaus adressiert das Open-Compute-Projekt, übrigens von Facebook initiiert, die Spannungsversorgung mit einem 12,5V-Netzteil und 277V-Eingangsspannung sowie einem Eingang für ein 48V-Batterie-Backup.   Klimawandel bei der Wohlfühltemperatur Auch ohne solche drastischen Änderungen an der Computerhardware lassen sich die Rahmenbedingungen für den Betrieb deutlich verbessern, vor allem bei aktueller Hardware. Wichtigste Stellschraube ist die Temperatur der zugeführten Luft. Während dabei noch vor wenigen Jahren Werte um die 20 °C Standard waren, sind heute bis zu 40 °C anzutreffen. Die American Society of Heating, Refrigerating and Air-Conditioning Engineers (Ashrae) hat die zulässigen Eckdaten in ihren Richtlinien für den Betrieb von Rechenzentren im Jahr 2008 erheblich gelockert. Sowohl die Bandbreite der Temperaturen als auch der Luftfeuchte ist gewachsen, was viele Firmen bereitwillig ausnutzen. Hersteller wie Dell oder SGI haben die Garantiebereiche ihrer Server an die veränderten Vorgaben angepasst, sodass Betreiber die höheren Temperaturen in den Rechenzentren nutzen dürfen. Ein breites Feuchtigkeits- und Temperaturspektrum erlaubt die häufigere Verwendung von Außenluft zur Kühlung, die so genannte freie Kühlung, entweder indirekt mit Wasser als Transportmedium oder direkt über gefilterte Außenluft als einziges Medium. Mit den angepassten Ashrae-Angaben aus dem Jahr 2008 ist in Mittel und Nordeuropa fast das ganze Jahr über freie Kühlung möglich, ohne - bis auf wenige Tage im Jahr - einen zusätzlichen und stromintensiven Chiller nutzen zu müssen.   Dem Strom hinterher Wenn es günstiger ist, die Außentemperatur zur Kühlung heranzuziehen, dann ist es folglich am sinnvollsten, ein Rechenzentrum dort zu betreiben, wo es beständig kühle Luft gibt. In den skandinavischen Ländern entstehen deshalb zurzeit zahlreiche neue große Rechenzentren. Facebook hat gerade eine Anlage in Schweden eröffnet, die komplett mit Freikühlung auskommt. Google kühlt seine Server in Finnland mit Meerwasser. Im Fall von Facebooks schwedischer Anlage in Luleå spielt auch der dort verfügbare günstige Ökostrom eine Rolle. Dies wird auch in Deutschland die Rechenzentrumswelt verändern. Nachdem sich Erzeuger alternativer Energien an Standorten ansiedeln, wo die besten Umgebungsbedingungen für Wind- oder Wasserkraft herrschen, werden Rechenzentrumsbetreiber den Erzeugern folgen.   Standardisierung statt Detailaufwand Die Frage, aus welchen Komponenten ein möglichst effizientes Rechenzentrum aufgebaut sein muss, beschäftigt die Entwickler schon lange. Große Anwender wie Microsoft glauben, dass die Standardisierung eine entscheidende Maßnahme ist, um Kosten und Effizienz in den Griff zu bekommen. Die neuen Rechenzentren des Softwaregiganten nutzen eine Tier-1-Infrastruktur, also ein RZ mit minimalen Klima-, Redundanz- und Sicherheitsvorkehrungen. Die Redundanz entsteht auf Applikationsebene. Gemeinsame Massenspeicher, virtualisierte Server und die entsprechende Hochverfügbarkeits-Software sorgen im Ernstfall dafür, dass sich Prozesse und Daten von einem defekten Gerät auf ein Ersatzsystem verschieben lassen. Microsofts Rechenzentrum besteht aus weitgehend standardisierten Komponenten: Das Erfolgsrezept heißt Modulbauweise. Auch Rittal geht mit seinem neuen Rechenzentrumskonzept diesen Weg. Rimatrix S ergänzt die bestehende Produktlinie für den individuellen Rechenzentrumsbau um ein Baukastenprinzip mit vordefinierten Modulen aus Server- und Netzwerkschränken, Klimatisierung und Stromversorgung. Das standardisierte Rechenzentrum ist in Ausführungen mit sechs (Single 6) oder neun Schränken (Single 9) verfügbar, lässt sich zu größeren Blöcken kombinieren und so fast beliebig von einer Leistung von 20 bis 450 kW skalieren. Die Standardisierung bringt auch Vorteile aus Kostensicht mit sich: Weil die Single-6- oder Single-9-Module erheblich schneller und unkomplizierter aufgebaut sind als vergleichbare Konstruktionen aus Einzelschränken, bleibt die Dauer von Wartungs- und Umbaumaßnahmen auf ein Minimum beschränkt. Ersatzteil- und Lagerhaltung vereinfachen sich, da es sich um stets gleiche Standardteile handelt, die in jedes der Module passen. Planung und Bestellung laufen erheblich schneller ab, da Kunden über eine Bestellnummer ein komplettes Server-Modul ordern können.   Verbrauchskontrolle wird Pflicht Was Rechenzentrumsbetreiber in den letzten Jahren häufig vernachlässigt haben, wird in Zukunft unumgänglich sein: Jederzeit genaue Daten über ihr Rechenzentrum zu besitzen und auszuwerten. Eine Online-Befragung des Branchenverbands Eco e.V. ergab, dass nur 33 Prozent aller Rechenzentrumsbetreiber über Personal verfügten, das sich mit dem Thema Energieeffizienz beschäftigte, und 37,5 Prozent der Rechenzentrumsbetreiber kamen ohne einen Ansprechpartner aus, der die Stromkosten für die IT im Rechenzentrum verantwortet. Doch einer der größten Fehler der Vergangenheit war die Dimensionierung des Rechenzentrums nach Typenschild. Wenn ein Server-Netzteil eine Nennleistung von 850 W aufwies, wurde auch mit einer maximal angeforderten Leistung von 850 W kalkuliert. Doch kein Server oder anderes elektrische Gerät nutzt die Nennleistung des Typenschilds tatsächlich aus, nicht einmal bei einer Auslastung von 100 Prozent. Die Fehleinschätzung von Leistungsdichten hat Auswirkung auf alle Gewerke des Rechenzentrums. Im Falle einer Überdimensionierung ist mehr Fläche für die IT-Infrastruktur und die Gebäudetechnik nötig. Die technischen Anlagen wie Transformatoren, USV-, Diesel- und Schaltanlagen, Batterien, Klimageräte und Kälteerzeugungsanlagen werden größer ausgelegt als nötig. Eine aktuelle Studie des Eco-Verbands ergab als grobe Faustformel Mehrkosten von 3.000 bis 5.000 Euro pro kW Überdimensionierung für ein Rechenzentrum mit einem guten n+1-Redundanzkonzept.   Stromverbrauch präzise erfassen Inzwischen haben sich mehrere Initiativen daran gemacht, die Stromaufnahme von Servern bei Praxisbedingungen zu messen und zu katalogisieren. So entwickelte die TU Berlin an den Fachgebieten Informations- und Kommunikations-Management (IKM) und Energieverfahrenstechnik (EVUR) das Data Center Benchmarking (DCB). Seit 2009 erheben die Experten dazu regelmäßig Daten zum Energiebedarf und zur RZ-Infrastruktur.

Als Alternative zum individuellen Rechenzentrumsbau bietet das standardisierte Rechenzentrum Rimatrix S kurze Lieferzeiten und vorzertifizierte Komponenten.
Rittal-Rechenzentrum_0.jpg">

Die Studie "Next Generation Data Center Index" von Oracle ergab für 2013, dass sich der Anteil von Unternehmen, die ausschließlich auf unternehmensinterne Rechenzentren setzen, seit der letzten Befragung von 45 Prozent auf 66 Prozent erhöht hat.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Nortel Networks Germany GmbH & Co.KG

Weitere Artikel zu ATN Automatisierungstechnik- Testsysteme-NC Technik GmbH

Matchmaker+