Wie können Unternehmen ihre IT-Infrastruktur fit für die Zukunft machen und gleichzeitig die Kosten für den laufenden Betrieb minimieren? Intelligente Rechenzentrumskonzepte versuchen, den Spagat zwischen diesen auf den ersten Blick gegensätzlichen Anforderungen zu bewältigen. Dabei geht es vor allem darum, die Ziele Energieeffizienz, Modularität, Sicherheit und Zukunftsfähigkeit unter einen Hut zu bringen.
Die Anforderungen an IT-Infrastrukturen sind in den vergangenen Jahren durch fortschreitende Zentralisierung, Virtualisierung und immer höhere Leistungsdichten immer weiter gestiegen. Wie sollen die betroffenen Experten vor diesem Hintergrund die Ausstattung eines Rechenzentrums heute planen? Erfahrungen aus der Praxis zeigen, dass viele der derzeit angebotenen Komplettlösungen am tatsächlichen Bedarf von Unternehmen vorbeigehen. Häufig sind die vorgeschlagenen Konzepte falsch dimensioniert, im Betrieb zu teuer oder schränken die zukünftigen Entwicklungsmöglichkeiten zu stark ein. Es lohnt sich daher, etwas mehr Zeit in die Planungsphase zu investieren und eine individuelle Lösung zu finden, die zur IT-Landschaft und den individuellen Anforderungen des Unternehmens auch tatsächlich passt. Vier Ziele sollten Unternehmen bei der Planung ihrer Rechenzentrumsinfrastruktur heute immer im Auge behalten: Energieeffizienz, Modularität, Sicherheit und Zukunftsfähigkeit. Diese Aspekte in Einklang zu bringen, ist im Alltag oft eine enorme Herausforderung, aber letztlich der Schlüssel auf dem Weg zu einem intelligenten Rechenzentrum.
Strom sparen durch innovative Technik
Das Ziel der Energieeffizienz hat für Unternehmen in den letzten Jahren angesichts steigender Strompreise immer mehr an Bedeutung gewonnen. Glaubt man den Versprechen der Hersteller, erfüllen heute bereits nahezu alle Komponenten die Anforderungen an eine „grüne“ IT – bei näherer Betrachtung kommen jedoch in vielen Fällen nur marginale Stromspareffekte zum Vorschein. So gelten beispielsweise Rechenzentren, die über eingehauste Gänge verfügen, heute grundsätzlich als sauber und umweltfreundlich. Tatsächlich lässt sich durch eine Einhausung die Klimatisierung optimieren, aber nur dann, wenn die beigeschalteten Klimatisierungsgeräte mit EEC-Ventilatoren und eigenständiger Regelung versehen sind. Ansonsten verhindert die Trennung von Kalt- und Warmgang lediglich, dass sich die unterschiedlichen Luftströme kreuzen und somit noch mehr Energie verloren geht. Viel entscheidender für die Nachhaltigkeit eines Klimatisierungskonzepts ist heute jedoch die Frage, auf welche Art und Weise die Kälte für die Kühlung der Server entsteht. Unternehmen sollten sich in dieser Frage nach Alternativen zu den immer noch sehr verbreiteten Kompressoranlagen mit Direktverdampfertechnik umsehen. In der Anschaffung sind diese Anlagen zwar nach wie vor unschlagbar günstig, haben im laufenden 24×7-Betrieb jedoch auch den höchsten Stromverbrauch. Langfristig wirtschaftlicher sind dagegen Konzepte, die den Anteil der mechanischen Kältegewinnung so weit wie möglich reduzieren. Hohe Einsparungen lassen sich beispielsweise durch die Kombination einer Kaltwasserklimaanlage mit Freikühltechnik erzielen. Erfahrungsgemäß bewährt sich eine ausschließliche Freiluftkühung bis zu einer Außentemperatur von etwa 17°C. Abhängig vom Jahrestemperaturverlauf entspricht dies in Deutschland einem Zeitraum von etwa 7.600 bis 8.000 Stunden pro Jahr. Damit ist die kompressorgesteuerte Kälteerzeugung nur noch in den heißesten Phasen des Jahres nötig – also in etwa zehn bis 15 Prozent der Gesamtzeit. Für diesen Zeitraum gilt, dass eine Kaltwasserklimaanlage erfahrungsgemäß effizienter ist als eine Kompressoranlage mit synthetischem Kältemittel – nicht zuletzt, da das Wasser zum Kühlen der bessere Energieträger ist, der mehr Wärme aufnehmen kann und diese einfacher wieder abgibt. Ein so hoher Nutzungsgrad der freien Kühlung pro Jahr ist allerdings nur möglich, wenn innerhalb des Rechenzentrums Kühltechniken zum Einsatz kommen, die mit hohen Wasservorlauftemperaturen von rund 19°C noch sinnvolle Kühlleistungen im Bereich 22°C bis 23°C Zulufttemperatur produzieren. Dabei können wiederum Rack-basierende Kühllösungen punkten, die nicht mehr den gesamten Raum kühlen, sondern nur noch die Schränke selbst. Grundsätzlich lässt sich der Anteil der mechanischen Kältegewinnung in Rechenzentren auch auf null reduzieren – beispielsweise durch eine geothermische Kühlung mit Brunnenwassser oder Geothermiesonden. Dabei sind jedoch im Vorfeld viele Faktoren zu berücksichtigen, die schon so manchen Planer und vor allem Betreiber um die gewünschten Resultate gebracht haben – von der Bodenbeschaffenheit bis zu rechtlichen Fragen des Wasserschutzes. Kältegewinnung durch Geothermie ist in der Praxis meist deutlich komplizierter als Wärmegewinnung durch Geothermie. Wenn alle Parameter wie kalkuliert eintreten, kann man mit einer Kombination aus indirekter freier Kühlung und geothermaler Kältegewinnung jedoch durchaus einen PUE von 1,1 oder kleiner erreichen. Mit diesem Ansatz ließe sich also die Energieeffizienz um ein Vielfaches steigern – und die zusätzlichen Investitionen hätten sich schon nach kurzer Zeit amortisiert.
Modularität: Infrastrukturen nach Bedarf erweitern
Passgenaue Lösungen für eine Rechenzentrumsinfrastruktur erkennt man heute an einer modularen Gestaltung. Modularität bedeutet in diesem Fall, dass der Kunde seine Umgebung nach Bedarf in einzelnen Schritten umbauen kann und nicht von Anfang an auf die große, meist teure Lösung setzen muss. Im Idealfall lassen sich die unterschiedlichen Bereiche von der Stromversorgung und der USV über die Klimaanlage bis hin zu den Server-Schränken abhängig vom Bedarf erweitern – und dies möglichst ohne große bauliche Veränderungen. Der schwierigste Block dürfte in vielen Fällen die Klimaanlage sein. Ein Klimaschrank, der an seine Leistungsgrenze gekommen ist, ist in der Regel komplett zu ersetzen. Zudem müssen die Planer bei wachsenden Anforderungen überprüfen, ob die Außeneinheiten zusätzliche Kapazitäten unterstützen können – und ob der Durchmesser der vorhandenen Leitungen noch Erweiterungen zulässt. Andernfalls ist es notwendig, in die Gebäudeinfrastruktur einzugreifen und zusätzliche Leitungen zu verlegen. Bei IT-Schränken und Einhausungen ist es heute nicht immer einfach, Komponenten von unterschiedlichen Anbietern zu kombinieren. Viele Hersteller kochen nach wie vor ihr eigenes Süppchen und produzieren beispielsweise Server-Schränke in den ungewöhnlichsten Formaten. Um echte, herstellerunabhängige Modularität zu erreichen und die Vorteile unterschiedlicher Anbieter kombinieren zu können, sind daher umfassende Marktkenntnisse erforderlich. Auf der Stromseite ist Modularität schon einfacher umzusetzen. Nahezu jeder Hersteller hat heute modulare Anlagen im Portfolio, und eine sauber geplante und umgesetzte Unterverteilung lässt sich jederzeit auch durch neue Sicherungsautomaten verändern. Größten Wert sollten Unternehmen in jedem Fall auf eine modular aufgebaute USV legen. In vielen Rechenzentren kommen heute überdimensionierte Einzelblockanlagen zum Einsatz, die im Betrieb enorme Kosten verursachen. Neben den Stromverbrauchswerten liegt dies vor allem am Faktor Redundanz: Um eine Einzelblock-Anlage ausfallsicher zu machen, muss der Betreiber zwei Anlagen beschaffen, während bei einem modularen System meist nur ein zusätzliches Modul nötig ist. Grundsätzlich sollte eine modulare Anlage immer erst beim Erreichen der Kapazitätsgrenze von 80 Prozent erweitert werden. Die meisten modularen USV-Anlagen bestehen heute jedoch aus dreiphasigen Blöcken – und in der Praxis kommt es häufig vor, dass die einzelnen Phasen ungleichmäßig belastet sind. Dies kann dazu führen, dass ein Upgrade notwendig wird, obwohl die USV selbst noch nicht an der Kapazitätsgrenze angekommen ist. Da nun aber alle drei Phasen gleichzeitig wachsen, ist die USV wieder entsprechend überdimensioniert. Der Einsatz von USV-Anlagen, die sich phasenweise erweitern lassen, bietet in diesem Fall einen Ausweg. Eine Alternative wäre, die einzelnen Phasen genau zu messen und im Betrieb gleichmäßiger auszulasten. Dies kann der Betreiber zum Beispiel mit messbaren Steckdosenleisten relativ einfach bewerkstelligen. Die Themen Sicherheit und Verfügbarkeit spielen für die Entwicklung eines intelligenten Rechenzentrums eine ganz entscheidende Rolle. Ein längerer Ausfall kritischer Systeme ist für viele Unternehmen heute kaum noch zu verkraften, daher darf in einem sauber ausgearbeiteten Sicherheitskonzept eine Störung einzelner Komponenten zu keinem Gesamtausfall mehr führen.
Risiken minimieren und Ausfälle verhindern
Dabei sind auch indirekte Effekte zu berücksichtigen. Was passiert beispielsweise, wenn in einem Rechenzentrum der Strom ausbleibt? Im besten Fall puffert die USV den Ausfall bis zur Wiederkehr des Netzstroms ab. Im Fall eines länger dauernden Stromausfalls gibt es dann die Option des geordneten Shutdowns oder eine weitere Überbrückung durch eine Netzersatzanlage. Die Klimaanlage bleibt bei diesem Szenario jedoch häufig außen vor. Zwar ließe sich der normale Strombedarf eines kompressorbasierenden Systems ohne Weiteres über eine entsprechend groß dimensionierte USV abdecken, die Anlaufströme des Kompressors liegen jedoch oft über dem Vier- bis Fünffachen des Nennstroms. Diese Peaks kann eine USV weder kurzfristig noch langfristig schadlos überstehen. Zudem finden sich in der Praxis Kostengründen oft leichtsinnigerweise Deckensplitgeräte, die gar nicht in der Lage sind, sich automatisch wieder einzuschalten, wenn der Strom zurückkehrt. So übersteht die IT zwar dank der USV zunächst den Stromausfall, geht aber später wegen der Überhitzung des Server-Raums komplett in die Knie. Genau solche Worst-Case-Szenarien müssen durch die vorausschauende Planung eines Sicherheitskonzepts ausgeschlossen sein. Neben dem Risiko des Stromausfalls gibt es auch noch andere Gefahren für die Funktionsfähigkeit der IT-Infrastruktur. Um sich vor Feuerschäden zu schützen, sollten Unternehmen beispielsweise eine Brandfrühesterkennungsanlage oder ein Rauchansaugsystem installieren und dieses mit einem entsprechenden Monitoring-System verbinden. Oft ist auf diese Weise frühzeitig erkennbar, wenn sich irgendwo Rauch durch einen Kurzschluss entwickelt – und durch das Abschalten oder Stromlosschalten des betroffenen Bereichs lässt sich der Ausbruch eines Feuers letztlich verhindern. Darüber hinaus empfiehlt es sich, auch Kameras, Temperaturfühler, Leckage-Sensoren und weitere Messgeräte in das zentrale Monitoring-System zu integrieren, um so schließlich eine durchgängige und proaktive Überwachung der IT-Infrastruktur zu erreichen Intelligente Systeme können die Sicherheit und Ausfallsicherheit eines Rechenzentrums deutlich erhöhen – sie greifen jedoch nicht, wenn die verschiedenen Parteien bei der Rechenzentrumsplanung die Verantwortlichkeiten nicht klar geregelt haben. In vielen Unternehmen gibt es heute eine mehr oder weniger ausgefeilte Arbeitsteilung zwischen der IT-Abteilung, die das Innere des Rechenzentrums betreibt, und der Gebäudeleittechnik, die für die Infrastruktur und Haustechnik verantwortlich ist. Für einen reibungslosen Betrieb müssen diese beiden Bereiche jedoch sehr eng zusammenarbeiten. Also gilt es, hier eine Schnittstelle zu schaffen, die für einen schnellen Informationsfluss sorgt und sicherstellt, dass die IT beispielsweise sofort vom Ausfall einer Klimaeinheit erfährt. Wie kann diese Schnittstelle aussehen? In der einfachsten Form ist dies ein Maßnahmenkatalog, der die IT-Abteilung in alle relevanten Prozesse einbindet. Optimal wäre eine personelle Schnittstelle, gewissermaßen ein IT-Facility-Manager, der beide Welten kennt und sowohl in den Anforderungen der IT zu Hause ist, als auch die Liegenschaft und ihre Gegebenheiten versteht.
Zukunftsfähigkeit: Wohin geht die Reise?
Wenn es um die Zukunftsfähigkeit von Rechenzentren geht, rückt heute das Thema Data Center Infrastructure Management (DCIM) immer stärker in den Mittelpunkt. DCIM-Anwendungen sammeln Informationen aus allen wichtigen Systemen und ermöglichen vielfältige Datenauswertungen, um damit die Kapazitätsplanung zu unterstützen. Die Simulation von „What if“-Szenarien kann beispielsweise eine wertvolle Planungshilfe für die Platzierung von neuer Hardware sein. Eine verbindliche Definition des Begriffs DCIM hat sich in der Branche noch nicht durchgesetzt – letztlich interpretiert jeder Hersteller die Aufgabenstellung ein wenig anders. Gemeinsam ist den unterschiedlichen Ansätzen, dass sie das Rechenzentrum – bildhaft gesprochen – in viele kleine Scheiben schneiden und diese sowohl individuell als auch im Ganzen betrachten. Wie sehen dabei die entscheidenden Parameter aus? Wichtig für die zukünftige Planung eines Rechenzentrums sind vor allem die Verfügbarkeit von freien Höheneinheiten, die verfügbare Traglast von Böden/Doppelböden, der verfügbare Strom in den einzelnen Phasen oder Racks und die verfügbare Klimatisierung. Zudem muss bei Erweiterungen gewährleistet sein, dass sich die zusätzlichen Ressourcen auch im Überwachungssystem abbilden lassen. Ein mit sauberen Daten gefüttertes DCIM ist in der Lage, kommende Engpässe frühzeitig zu erkennen und davor zu warnen. Einzig die gegebene Fläche stellt bei Berücksichtigung aller Aspekte das Limit dar. Die vorhandene Infrastruktur sollten die Planer im Vorfeld möglichst genau eruieren und bei steigenden Anforderungen mit Augenmaß um die nächsten Schritte ergänzen. Gewisse Unschärfen lassen sich jedoch auch mit einer sehr genauen Planung nicht vermeiden, denn die technische Entwicklung wird auch in Zukunft einige der heute gültigen Annahmen obsolet machen. Hätte man einen IT-Planer vor zehn bis 15 Jahren gefragt, wie sich Rechenzentrums-Infrastrukturen entwickeln werden, hätte er vermutlich mit „größer, besser, schneller, weiter“ geantwortet. Dass durch die Virtualisierung heute weniger Server stärker frequentiert sind als früher und eine steigende Last sich auf eine schrumpfende Fläche verteilt, war damals noch nicht abzusehen. Einen ähnlichen Unsicherheitsfaktor bringt heute das Thema Cloud Computing ins Spiel. Derzeit lässt sich kaum prognostizieren, wie sich dieser Trend auf die Entwicklung von IT-Infrastrukturen auswirken wird. Umso wichtiger ist es, Rechenzentren künftig so auszustatten, dass sie auf den Wandel vorbereitet sind. Mit einem intelligenten Rechenzentrum, das sich effizient und sicher betreiben, modular erweitern und nach Bedarf anpassen lässt, sind Unternehmen in der Lage, auch auf die Anforderungen des Cloud-Zeitalters zeitnah und flexibel zu reagieren.