Der Trend zur Standardisierung im RZ

Sicherheit und Effizienz im Standardformat

13. August 2013, 6:00 Uhr | Bernd Hanstein /jos, Hauptabteilungsleiter Produkt-Management IT bei Rittal in Herborn.

Seit einiger Zeit ändern sich die Anforderungen an Rechenzentren massiv: Hardware, Applikationen, Infrastruktur und Verwaltung haben kaum noch etwas mit der Ausstattung in früheren Server-Räumen zu tun. Standardisierung ist ein Weg, um die aktuellen Ansprüchen zu erfüllen. Um Flexibilität und Effizienz zu erzielen, sind allerdings viele Faktoren in Betracht zu ziehen.Für Rechenzentren war lange Zeit nur die Maßanfertigung denkbar. Die Planung im Vorfeld ging individuell auf alle Gegebenheiten des Kunden ein, meist war das entstehende Rechenzentrum ein Einzelstück - Einrichtung und Infrastruktur explizit auf den voraussichtlichen Aufgabenbereich zugeschnitten. Doch immer mehr wird klar, dass dieser Ansatz in Zukunft nicht haltbar ist. Die hoch komplexen Konzepte bei Entwurf, Umsetzung und Betrieb passen nicht mehr zu den mittlerweile stark standardisierten Diensten, die die Server bereitstellen.   Beständig ist nur der Wandel Seit einigen Jahren verändern sich die Anforderungen an die zentralen Computersysteme maßgeblich. In der modernen Web-2.0-Gesellschaft sind die Dienste eines Rechenzentrums längst nicht mehr so einzigartig wie noch vor einigen Jahren. Neben den individuell abgerufenen Applikationen und Services, die sich von Unternehmen zu Unternehmen entscheiden, gibt es einen überwiegenden und noch dazu wachsenden Anteil von "Einheitselementen". Standardinfrastruktur mit Strom und Klimatisierung versorgt Standarddienste auf Standardhardware. Längst ähneln sich viele Rechenzentren - zumindest in weiten Bereichen. Den Anfang machte die Virtualisierung, durch die sich Anwendungen von der Hardware, auf der sie ausgeführt wurden, entkoppeln ließen. Als Nebeneffekt stieg die Auslastung der Server massiv an, weil mehrere virtuelle Maschinen auf einem physischen Server arbeiteten konnten. Heute verteilen Algorithmen die virtuellen Maschinen automatisch dorthin, wo am meisten freie Kapazität vorhanden ist. In Folge konsolidierten Firmen ihre Server, kleinere Einzelsysteme ersetzen sie durch große Blade-Server, zumindest solange dies aufgrund der vorgegebenen Klima- und Stromversorgung möglich ist. Ein älteres Rechenzentrum, das zur Jahrtausendwende konzipiert wurde, rechnete oft mit einer maximalen Last von etwa einem Kilowatt pro Quadratmeter. Aktuell ist der zehnfache Wert realistisch. Eine dieser Anforderungen entstand mit der Cloud-Technik. Sie warf die Vorstellung über Bord, dass Rechenleistung nur in den eigenen vier Wänden zu stehen hatte. Cloud-Anbieter liefern schlüsselfertige Prozessor-Power, eine schnelle Internet-Anbindung genügt. Daran wird sich in absehbarer Zeit nichts ändern, im Gegenteil. Der Cisco-Global-Cloud-Index geht davon aus, dass in drei Jahren etwa zwei Drittel des gesamten Datenverkehrs über Cloud-basierende Rechenzentren läuft. Die Cloud macht damit bis 2016 64 Prozent des gesamten Datenverkehrs über Rechenzentren aus, 2011 waren es noch 39 Prozent. In Europa, dem Nahen Osten und Afrika ist der Trend zu Cloud Computing sogar noch stärker als im weltweiten Durchschnitt, hier verneunfacht sich der jährliche Cloud-Datenverkehr bis 2016 auf 190 Exabyte.   Handlungsdruck durch Big Data Die riesigen bewegten Datenmengen haben mittlerweile einen eigenen Sammelbegriff erhalten: "Big Data" heißen die besonders großen Datenmengen, die sich mithilfe von Standarddatenbanken und Daten-Management-Tools nicht oder nur unzureichend verarbeiten lassen. Die Daten kommen zum Beispiel von Social-Media-Websites oder von mobilen Endgeräten, die unaufhörlich Informationen produzieren oder protokollieren und auf zentralen Speichersystemen ablegen. Gleichzeitig steigt die Zahl der unterschiedlichen, gespeicherten Dateiformate, darunter Bilder, Videos, Links oder Dokumente. All diese Daten benötigen Speicherplatz und Rechenleistung zur Verarbeitung, zwei Ressourcen, die Rechenzentren liefern - aber nur die richtige Art von Rechenzentrum. Dies scheint bislang nur bei den wenigsten Firmen vorhanden zu sein. In einer aktuellen IDC-Studie von Ende 2012 sehen Unternehmen zahlreiche Hürden bei der Nutzung von Big-Data-Technik. Ganz oben auf der Mängelliste steht die vorhandene IT-Infrastruktur: 34 Prozent der Befragten glauben, dass sie nicht ausreichend skalierbar ist. Damit steht exakt der Faktor in der Kritik, der schon die Virtualisierung für Unternehmen schwieriger gemacht hat, als nötig: statische und aufwändig zu erweiternde Rechenzentren. Big Data stellt insbesondere deswegen eine große Herausforderung an die Unternehmen, da sie gezwungen sind aktiv zu werden, um dem Datenwachstum, der Datenvielfalt und den verschiedenen Datenquellen entgegenzutreten und geschäftlichen Nutzen daraus zu generieren. Wie bei der Virtualisierung versprechen sich die Firmen aus der Nutzung von Big-Data-Technik an erster Stelle eine Kostenoptimierung. Für knapp die Hälfte der durch IDC befragten Studienteilnehmer (45 Prozent) stehen Einsparungen im Vordergrund.   "Late Adopter" im Vorteil Wie gehen eigentlich Firmen mit Big Data um, für die das Wort "Big" andere Dimensionen hat, als für "normale" Unternehmen? Google, Facebook und Amazon müssen jeden Tag Informationsmengen bewältigen, die die meisten mittelständischen Unternehmen in ihrem gesamten Bestehen nicht einmal annähernd verarbeiten. Sie planten ihre Rechenzentren erst vor - nach Internet-Maßstäben - sehr kurzer Zeit. Hohe Skalierbarkeit, Flexibilität und maximale Kosten- sowie Energieeffizienz waren bereits fester Bestandteil des Designprozesses. Und so stehen deren Hallen voller standardisierter Server-Container, die hochverfügbar und hoch wirtschaftlich gigantische Rechen- und Speicherkapazitäten vorhalten. Vereinheitlichung scheint der Weg zu sein, um Rechenzentren fit für die Zukunft zu machen. Dies verwundert nicht, wenn man sich die zahlreichen Aspekte der Standardisierung ansieht. Ansatzpunkte gibt es in fast jedem Bereich, angefangen von den Böden in den Server-Schränken bis hin zur übergreifenden Infrastruktursteuerung. Auf der untersten Ebene eines Rechenzentrums stehen normalerweise die 19-Zoll-Schränke, in denen Server und andere Hardware Platz finden. Legt sich ein Kunde auf ein Schrankmodell fest, vereinfacht sich die Aufgabe der Administratoren und der Instandhaltungsabteilung deutlich. Dies fängt bereits bei der Planung von neuen Schrankreihen an. Wenn nur ein Modell eines Schranksystems in Frage kommt, ist eindeutig, wie viele 19-Zoll-Racks im Raum Platz finden. Mechanische Schleusen für Zuführungen und Anschlüsse sind durchgehend an der gleichen Stelle, sodass eine Erweiterung mit Server-Racks frühzeitig vorbereiten werden kann. Dazu sind mechanische gleich aufgebaute Schrankreihen optimal aufeinander abgestimmt. Sie lassen sich kompakter bauen und ermöglichen eine bessere Nutzung der verfügbaren Fläche. Damit ergibt sich für das Rechenzentrum eine höhere Packungsdichte bei einem kleineren Gesamtvolumen. Auch bei der Inneneinrichtung der Schränke hilft die Standardisierung: Da bekannt ist, wie viel Platz für Rahmen, Kabelführung und andere mechanische Elemente benötigt wird, wissen die Planer eindeutig, wie viele Höheneinheiten pro Rack für Hardware zur Verfügung stehen. Consultants für Rechenzentren empfehlen, sich auch bei der Bestückung an Standards zu halten. Es ist sinnvoller, nicht alle Racks gleich auszustatten, sondern die Bestückung in bis zu vier Leistungsklassen aufzuteilen. So könnte eine Leistungsklasse eine Mischbestückung mit Einzel-Servern und einem oder zwei Blade-Servern sowie der notwendigen Netzinfrastruktur enthalten. Auf den Servern solcher Racks lassen sich beispielsweise abteilungsspezifische Anwendungen hosten. Die Leistungsklasse am anderen Ende des Spektrums enthält nur Blade-Server und ist für hochleistungsfähige Applikationen gedacht. Durch die Beschränkung auf vier Musterkonfigurationen sind die Racks schneller zu planen, dennoch können die Leistungsansprüche flexibel bleiben.   Standardisierung hat viele Facetten Noch eine Stufe weiter will Rittal mit dem modularen und standardisierten Rechenzentrum Rimatrix S gehen. Es ergänzt die bestehende Produktlinie um ein Baukastenprinzip mit vordefinierten, standardisierten Modulen aus Server- und Netzwerkschrankgestellen, Klimatisierung, Stromversorgung und Monitoring. Mehrere Server-Module lassen sich zu skalierbaren Rechenzentren in einem Leistungsbereich von 20 kW bis 450 kW kombinieren. Die Konfiguration in den Racks ist frei wählbar, aber die Rahmenbedingungen für die Module wie Abmessungen sowie Übergabepunkte für Strom, Klima und Netzanbindung stehen fest. Dies beschleunigt die Planung und den Aufbau enorm. Wenn es an den praktischen Einbau geht, zeigt die Standardisierung ohnehin einen ihrer größten Vorteile. Alle Bauelemente sind mit den gleichen Werkzeugen oder über die gleiche Befestigungsmethode zu verarbeiten. Zwischenböden passen in jedes Rack, ebenso Türen und Seitenwände. Bestellung und Lagerhaltung sind einfacher, das Unternehmen muss auch weniger Ersatzteile vorhalten und kann Lagerbestände auf das Minimum beschränken. Auch Zusatzfunktionen profitieren von der homogenen Ausstattung. So lassen sich alle Racks mit einheitlichen Schließsystemen ausstatten, Generalschlüssel passen für jede Tür und erleichtern den Zugang für Administratoren und Techniker enorm. Der Vorteil wird noch größer, wenn eine elektronische Verriegelung zum Einsatz kommt. Dann ist jedes Rack zentral steuerbar, und Protokolle über berechtigte und unberechtigte Zugänge decken lückenlos alle Schranksysteme im Rechenzentrum ab. Strom und Klimatisierung sind die beiden wesentlichen Versorgungspfade im Rechenzentrum. Gerade dort kann ein standardisiertes Vorgehen hohe Synergieeffekte haben, denn die beiden Ressourcen sind an jedes Rack in der gleichen Art und Weise anzuliefern. Traditionell steht die Klimatisierung ohnehin über eine zentrale Kälteerzeugung bereit. Dies vermeidet Effizienzverluste durch mehrere Einzelsysteme und erleichtert die Skalierung. Seit die Leistungsdichten pro Rack beständig wachsen, stellen Anwender von der früher üblichen Doppelbodenkühlung über Kaltluft auf eine Direktkühlung durch Wärmetauscher in den Schrankreihen um. Der Wärmetauscher rückt so immer näher an die Hitzequelle heran, was einen deutlich effizienteren Betrieb möglich macht. Einheitliche Schranksysteme sind eine der wichtigsten Voraussetzungen dafür, denn die Wärmetauscher sind entweder in die hinteren Schranktüren oder zwischen den Racks integriert. Zwar lassen sich die Wärmetauscher meist auch an abweichende Schranksysteme anpassen, doch das kostet Geld und vergrößert den Aufwand, der sich in längeren Stillstandzeiten bei der Montage niederschlägt.   Effiziente Gangeinhausung bei gleicher Bauart Wenn alle Schrankreihen gleich aufgebaut sind, erleichtert dies auch die Einhausung. Damit sich die kalte Luft am Eingang der Server und die warme Luft am Ausgang nicht vermischen, sind beide Bereiche bei aktuellen Rechenzentren mechanisch über Wandelemente getrennt. Eine Gangeinhausung enthält fast immer Elemente, die spezifisch an die baulichen Gegebenheiten angepasst werden müssen. Doch je einheitlicher die Ausgangssituation ist, desto besser sind Kalt- und Warmgang trennbar und desto schneller ist ein Umbau abgeschlossen. Ein weiterer Aspekt der Klimatisierung wird in Zukunft ebenfalls nach Standardisierung verlangen. Verschiedene Hersteller arbeiten zurzeit an Gewerke übergreifenden Regelungen der Klimatechnik. Das Rechenzentrum und seine Umgebung stehen dabei als Komplettsystem - unter anderem mit dem Ziel, möglichst energieeffizient und damit auch kostengünstig zu arbeiten. Dadurch fließt beispielsweise die Umgebungstemperatur in die Kühlungsstrategie ein. Wenn die Außentemperatur unter einem bestimmten Wert liegt, ist das Rechenzentrum komplett durch die so genannte freie Kühlung, ohne Hilfe von Kompressoren temperierbar. Für die Energieeffizienz entscheidend ist auch, dass Schrankreihen, in denen die Auslastung der Server geringer ist, weniger kalte Luft erhalten als Reihen unter Volllast. Dazu muss jedoch eine übergreifende Instanz wie eine SPS oder die Datacenter-Infrastructure-Management-Software (DCIM) die Daten aller Sensoren und Aktoren des Rechenzentrums verarbeiten und Zugriff auf alle aktiven Regelungskomponenten haben. Dies funktioniert nur mit vertretbarem Aufwand, wenn die verwendeten Komponenten möglichst identisch sind. Die Stromversorgung ist die zweite kritische Ressource im Rechenzentrum. Auch sie kann massiv von der Standardisierung profitieren, vor allem im Hinblick auf die Verfügbarkeit und Redundanz. Für die Ausfallsicherheit sorgen im Rechenzentrum unterbrechungsfreie Stromversorgungen (USVs). Ein erster Schritt zur Standardisierung war es bereits, eventuell in jedem Rack verbaute kleine USV durch eine große, zentrale Anlage zu ersetzen. Dies reduziert den Wartungsaufwand drastisch. Ersatzteile sind nur für ein System zu beschaffen, und es ist sichergestellt, dass alle Monitoring-Daten vorliegen. Zudem werden Höheneinheiten im Rack frei, die sich für Server nutzen lassen. Ein weiterer Vorteil der zentralen Bereitstellung ist, dass die Leistung der USV optimal dimensionierbar ist. Einzelsysteme müssten für das theoretische Maximum pro Rack ausgelegt sein, auch wenn sich die Server und deren Leistungsaufnahmen möglicherweise im Lauf der Zeit ändern. Dazu verbauten die Betreiber in der Vergangenheit meist eine große, monolithische USV, die aus Gründen der Redundanz mit einem zweiten, identischen System abgesichert war. Dies ist für die zentrale Bereitstellung der elektrischen Leistung eine gute Lösung, nicht aber für die Effizienz. Zum einen ist der Wirkungsgrad beider USV nicht optimal, wenn sie nur mit geringer Last laufen. Zum anderen skalieren solche monolithischen Systeme kaum. Wenn mehr Leistung nötig ist, als bei der Planung an Reserven kalkuliert, hilft in der Regel nur der Austausch gegen ein größeres System.   Zentrale, modulare USV für mehr Skalierbarkeit Als Abhilfe bieten sich modular erweiterbare USV-Anlagen an, die Leistungsmodule aufrüsten können. Eine solche USV bietet normalerweise n+1-Redundanz. Ein Leistungsmodul darf komplett ausfallen, die Gesamtleistung ist so berechnet, dass die verbleibenden Module die Last weiter schützen können. Der positive Nebeneffekt ist der Wirkungsgrad. Weil die USV mit allen Modulen nahe Volllast betrieben wird, liegt deren Energieeffizienz am Optimum. Dennoch skaliert die modulare USV sehr unkompliziert. Wächst die geforderte Last, lassen sich zusätzliche Leistungsmodule in den Rahmen schieben, was für eine höhere Belastbarkeit sorgt. Ein modernes Rechenzentrum ist weit mehr als eine Ansammlung von 19-Zoll-Schränken. Der Betreiber muss eine große Zahl aktiver Elemente wie Umgebungssensoren, Stromversorgung, Klimatechnik sowie Sicherheits- und Steuerungssysteme überwachen und verwalten. Je umfassender die Standardisierung bei diesen Elementen umgesetzt ist, desto einfacher lassen sich die Datenformate normalisieren und über eine DCIM- Lösung verarbeiten. So haben Administratoren direkte Kontrolle über Umgebungsvariablen wie Raum- und Ablufttemperatur sowie Zugangskontrolle, die die Fehlersuche deutlich erleichtern. Wenn es mehr als ein Rechenzentrum im Unternehmen gibt, wird dieser Faktor noch wichtiger, denn Administratoren können nur dann mit vertretbarem Aufwand Daten anderer Standorte auswerten und in den entfernten Rechenzentren Eingriffe vornehmen. Zusätzlich machen diese Daten eine effiziente Gewerke-übergreifende Regelung erst möglich. Auch auf einer höheren Ebene sind die Informationen aus den Steuerungs- und Überwachungssystemen unverzichtbar. Für zuverlässige Return-on-Investment-Berechnungen müssen die Arbeitspunkte des Rechenzentrums bekannt sein. So benötigen CIOs Kennlinien, in denen die Effizienz des Rechenzentrums in Abhängigkeit der Server-Last und der dafür notwendigen Klimatisierung aufgeführt ist. Solche Verbrauchswerte lassen sich über das Jahr nur mit vertretbarem Aufwand für Server-Schränke, Schrankreihen und das gesamte RZ erfassen, wenn die Ergebnisse von Einzelsystemen aufgrund der Standardisierung extrapolierbar sind.   Standardisierung für jeden? Wer ein neues Rechenzentrum plant, hat es natürlich leichter, Aspekte der Standardisierung auf möglichst breiter Ebene einzuführen. Doch in der Regel steht alte Hardware neuen homogenen Systemen im Weg. Der Anteil von Rechenzentren, die umgebaut werden müssen, weil sie den aktuellen Anforderungen nicht mehr Stand halten können, nimmt beständig zu. Unternehmen mit bestehender Infrastruktur müssen sich der Herausforderung langsam, aber konsequent stellen. Es wird immer wieder die Möglichkeit geben, einzelne Gewerke komplett neu aufzusetzen, beispielsweise das USV-System, weil die alte Anlage an ihre Leistungsgrenzen gekommen ist.   Reaktion auf Wärmelast Auch alte Schranksysteme müssen nicht für alle Ewigkeit im Einsatz sein. Stehen größere Änderungen bei der Server-Hardware an, bleibt es nicht aus, dass die alten Racks aufgrund ihrer Bauweise nicht mehr in der Lage sind, die Wärmelast der neuen Server abzuführen oder dem Gewicht neuer Hardware standzuhalten. Dann kann es sinnvoll sein, gleich eine komplette Schrankreihe zu tauschen, auch wenn nur die Hälfte der Racks vom Umbau betroffen wäre. Am wichtigsten ist, wie bei jeder Art von strategischer Planung, mittel- und langfristige Vorgaben festzulegen. Wer definiert hat, wo die Reise in puncto Standardisierung hingehen soll, kann bei jeder anstehenden Änderung kleine Schritte auf dem Weg zum optimalen Rechenzentrum beschreiten.   Branchengrößen zeigen den Weg auf Firmen mit extrem hohen Ansprüchen an die Leistungs- und Packungsdichte in ihren Rechenzentren zeigen schon heute, wie die Zukunft aussehen wird. Microsoft beispielsweise spricht bei seiner Anlage in Chicago von einem Rechenzentrum der vierten Generation. Es besteht fast vollständig aus Containern mit jeweils 1.800 bis 2.500 Servern, die Standardisierung ist dabei auf ein Maximum getrieben. Rittal ermöglicht mit seinem System nun auch mittelständischen Firmen von solchen Standardkonzepten zu profitieren. Die kleinste Variante (Single 6) kann Hardware mit einer Verlustleistung von bis zu 60 kW beherbergen und skaliert bei Bedarf praktisch unbegrenzt nach oben. Zusammen mit innovativen Klima- und Stromversorgungskonzepten zeigen solche Lösungen, wo der Trend im Rechenzentrum in den nächsten Jahren hingehen wird.

Auch bei der Inneneinrichtung der Schränke hilft die Standardisierung: Weil bekannt ist, wie viel Platz Rahmen, Kabelführung und andere mechanische Elemente benötigen, wissen die Planer eindeutig, wie viele Höheneinheiten pro Rack für Hardware zur Verfügung stehen.

Für die Ausfallsicherheit sorgen im Rechenzentrum unterbrechungsfreie Stromversorgungen. Ein erster Schritt zur Standardisierung ist es, eventuell in jedem Rack verbaute kleine Geräte durch eine zentrale Anlage zu ersetzen.
Rittal-RiMatrix-S_Gangeinhausung.jpg">

Wenn alle Schrankreihen im Rechenzentrum gleich aufgebaut sind, erleichtert dies auch die Einhausung. Damit sich die kalte Luft am Eingang der Server und die warme Luft am Ausgang nicht vermischen, sind beide Bereiche bei aktuellen Rechenzentren mechanisch über Wandelemente bis unter die Decke getrennt.

Mit dem bereits 2012 auf der CeBIT vorgestellten IT-Rack-System TS IT will Rittal alle Anforderungen an modulare, flexible Netzwerk- und Server-Racks erfüllen.

Wenn die Außentemperatur unter einem bestimmten Wert liegt, lässt sich das Rechenzentrum komplett durch die so genannte freie Kühlung ohne Hilfe von Kompressoren temperieren.

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+