Das Management von Rechenzentren ist heute komplexer denn je. Dies liegt vor allem daran, dass die IT-Geräte in einem Datacenter nach gut drei Jahren veraltet sind. Die Infrastrukturen um Komponenten wie Stromversorgung und Klimatechnik sind hingegen für einen wesentlich längeren Zeitraum ausgelegt. Dadurch entstehen neue Herausforderungen, besonders wenn es um IT-Umgebungen auf der Basis von Virtualisierung und Cloud Computing geht. Deren effiziente Versorgung mit Strom und Kühlung lässt sich kaum noch ohne die Hilfe professioneller Softwarewerkzeuge verwalten.Die Software rund um das Thema DCIM (Datacenter-Infrastructure-Management) hat sich in den vergangenen Jahren erheblich weiterentwickelt. Diese Verbesserungen schließen sämtliche Bereiche, von der reinen Überwachung per Dashboard über die Erfassung von Daten bis hin zur Automatisierung sowie zur Planungsunterstützung beim Aus- oder Umbau eines Rechenzentrums mit ein. Allerdings war die erste Generation der Software rund um das Management von physischer Infrastruktur bei IT-Administratoren nicht unbedingt beliebt. Denn diese Lösungen boten nur einen eingeschränkten Funktionsumfang und benötigten ein gehöriges Maß an Aufmerksamkeit und Interaktion. Excel-Tabellen haben ausgedient So verwundert es nicht, dass viele Administratoren noch immer auf einfachste Hilfsmittel wie Excel setzen - etwa wenn es darum geht, die Belegung von Racks mit neuen Servern zu planen. Auf diese Weise lassen sich allerdings die zentralen Variablen wie der aktive Stromverbrauch oder die Kühlleistung kaum bestimmen. Zudem ist es vollkommen unmöglich, Ineffizienzen aufzudecken oder Prozesse zu optimieren. Mit einer aktuellen Planungssoftware hingegen lassen sich gleich mehrere Herausforderungen sehr gut meistern. Dabei zeigen sich die Vorteile bereits bei der Konzeption eines neuen Rechenzentrums oder der Erweiterung einer bestehenden Infrastruktur. Beispielsweise können Verantwortliche durch das grafische Benutzer-Interface detaillierte Einblicke in die vorherrschende Luftzirkulation in RZ-Räumen gewinnen. Damit lassen sich viele typische Probleme umgehen, die nach einer Planung "per Bauchgefühl" immer wieder auftreten. So fallen bei einer nachträglichen Untersuchung der Kühlung häufig dort Hotspots auf, wo es eigentlich kühl sein müsste. Andere Bereiche dagegen, in denen es heiß sein sollte, sind messbar kühl. Fast immer war in diesen Fällen die Planung nur auf die Versorgung mit Strom ausgerichtet. Die Platzierung der Komponenten unter thermischen Gesichtspunkten hatten die Verantwortlichen stattdessen vernachlässigt. Auch Probleme mit der Stromversorgung sind in vielen IT-Umgebungen ein häufig auftretendes Phänomen: So gibt es immer wieder Schwierigkeiten mit überlasteten Server-Racks, weil versehentlich bereits voll ausgelastete Stromleitungen für weitere Geräte genutzt werden. Auch wenn mehrere Systeme zu Server-Clustern zusammengefasst sind, wiegen sich viele Administratoren in trügerischer Sicherheit und verlassen sich auf die Failover-Mechanismen der Virtualisierungsplattform. Wird jedoch zum Beispiel bei der Planung außer Acht gelassen, dass sämtliche Geräte auf die gleiche unterbrechungsfreie Stromversorgung (USV) angewiesen sind, ist Ärger vorprogrammiert. Sobald diese einmal ausfallen sollte, stehen keine von der USV geschützten Server bereit, auf die sich die Last transferieren lässt. Trügerische Sicherheit beim Failover Eine moderne Planungssoftware verhindert diese Fehler. Idealerweise liefert eine solche Lösung für jede Komponente, die neu zur Installation kommen soll, selbstständig den dafür am besten geeigneten Platz. Dabei fließen sämtliche relevante Faktoren - wie benötigte Stromversorgung, Kühlung, HE-Platz, Netzwerkanschlüsse etc. - in die Berechnung ein. Außerdem zeigen moderne Tools direkt an, welche Auswirkungen eine jede einzelne Veränderung - etwa ein neu installierter Switch - auf die Stromversorgung und die Kühlleistung hat. Somit muss sich der Administrator nicht mit komplizierten mathematischen Berechnungen befassen, und das Risiko für Fehler sinkt deutlich. Ein weiterer Bereich, den moderne Planungs-Tools adressieren, ist das Asset-Management von Geräten. Nicht nur in größeren Rechenzentren sind zeitaufwendige Suchaktionen nach einzelnen Komponenten ein wiederkehrender "Zeitfresser". Häufig wurden diese Komponenten zwar für ein spezielles Projekt angeschafft, aber dann doch von anderen Mitarbeitern für eigene Vorhaben genutzt. Gute Lösungen liefern stets aktuelle und detaillierte grafische Übersichten über das komplette IT-Equipment und seine Platzierung in den einzelnen Racks. Auf diese Weise muss der Betreiber sich nicht selbst im Datacenter ein Bild machen oder durch Listen kämpfen, auf denen der derzeitige Standort verzeichnet sein sollte. Mehrwert beim Monitoring Auch bei der Überwachung und Optimierung von Installationen leistet DCIM-Software gute Dienste und schützt vor Fehlern. So kann eine moderne Lösung die durchschnittliche und maximale Stromlast pro Rack und den kompletten Stromversorgungsweg von der USV über das Rack bis hin zur einzelnen Komponente darstellen. Außerdem lässt sich für Einphasen- und Dreiphasen-Geräte die Stromlast messen und gleichzeitig sicherstellen, dass alle drei Phasen eines Stromversorgungssystems diese gleichmäßig tragen können. Ebenfalls wichtig ist die Analyse der Energieeffizienz. Dazu werden sämtliche Verbrauchswerte gespeichert und lassen sich in einer grafischen Übersicht jederzeit abrufen sowie mit historischen Daten vergleichen. Eine solche Auswertung ist besonders für die Verwaltung des Rechenzentrums eine wichtige Hilfe. Angesichts dieser Daten kann das Management im Nachhinein sehr gut entscheiden, ob die gewählten Maßnahmen tatsächlich den gewünschten Effekt zeigen. Zugleich ist im Zuge einer solchen Darstellung leicht ersichtlich, welche Komponenten überflüssig oder an anderer Stelle besser aufgehoben sind. Mehr Effizienz bieten DCIM-Lösungen auch mit Blick auf das Alarm-Monitoring. So ist es für den Administrator leicht nachvollziehbar, wann Alarme erstmalig auftraten und in welchen Konstellationen dies passierte. Statt nur zu vermuten, was die Ursache eines Fehlers war, können die IT-Verantwortlichen nun viel besser der Ursache von Problemen auf den Grund gehen. Automatische Reaktion bei technischen Ausfällen Auch bei der Reaktion auf Fehlermeldungen spielen moderne Software-Tools große Vorteile aus. Fällt in einer traditionellen Umgebung beispielsweise ein Lüfter der Klimaanlage aus, wird das Personal alarmiert und zur Wartung gerufen. In der Zwischenzeit ist das Risiko eines Rechnerausfalls wegen Überhitzung ausgesprochen hoch. Bei einer DCIM-Softwarelösung dagegen fahren nach auftretenden Problemen noch intakte Lüfter automatisch ihre Drehzahl hoch, um den Verlust zu kompensieren. Gleichzeitig identifiziert das System gefährdete virtuelle Server und beginnt einen automatischen Migrationsprozess auf andere, nicht von Kühlproblemen betroffene Host-Geräte. Das Ausfallrisiko ist in diesem Fall sehr niedrig. Die enge Verzahnung von Hard- und Software hat sich in den vergangenen Jahren erheblich weiterentwickelt. Durch einen solchen Informationsaustausch ist bereits im Vorfeld sichergestellt, dass virtuelle Maschinen sowie die dazugehörigen Applikationen nur auf solchen physischen Hosts laufen, die hinsichtlich der Kühlung und Stromversorgung auch tatsächlich dafür geeignet sind. Dies steigert die IT-Verfügbarkeit erheblich. Auf der anderen Seite lassen sich redundante Systeme unter Umständen deutlich reduzieren. Software schafft Sicherheit Neuere Management-Tools sind in der Lage, Probleme autark, also ganz ohne Eingriff durch einen Benutzer, zu beheben. Indem es die Stromversorgung, die Kühlung und den verfügbaren Platz mit den einzelnen Servern in Verbindung bringt, kann ein Software-Tool wie beispielsweise Struxureware for Data Centers von Schneider Electric die richtigen Schlüsse ziehen und proaktiv Daten an das IT-Management-System liefern. Letzteres erhält detaillierte Informationen darüber, welche Bereiche von Fehlern betroffen sind und welche Auswirkungen dies für das Gesamtsystem hat. Besonders in stark virtualisierten und dynamischen Cloud-Umgebungen bringt eine solche Echtzeitüberwachung von Energieversorgung und Kühlleistung einen großen Mehrwert. Denn aus den so generierten Daten lassen sich wertvolle Informationen über die Platzierung von Servern gewinnen. Moderne, intelligente Tools ermöglichen es der IT außerdem, die einzelnen Geschäftsbereiche über Auswirkungen ihrer Entscheidungen zu informieren. Sogar bevor die Provisionierungsentscheidung fällt, liegen bereits wichtige Daten vor. Dies verschafft Unternehmen einen klaren strategischen Vorteil: Schließlich haben Entscheidungen, die zu höherem Energieverbrauch führen, stets Auswirkungen auf den CO2-Ausstoß und die Energiebilanz. Mithilfe der Software ist es also auch möglich, die beiden Aspekte zu verknüpfen und Geschäftsvorteile gegenüber steigenden Energiekosten abzuwägen.