Die Erfassung der Leistungsdaten und der Umgebungsbedingungen ist für den Betrieb von Serverräumen und Rechenzentren essenziell. Die Leistungsdaten sollten dazu an verschiedenen Stellen gemessen werden. Selbstverständlich müssen die Gesamtleistung für das Rechenzentrum sowie die Auslastung von Trafos, Schaltanlagen, USV-Systemen, Elektroverteilungen und Klimaanlagen ermittelt werden. Mit diesen Daten lassen sich einerseits der PUE-Wert – die Power-Usage-Effectiveness – bestimmen, andererseits der Betrieb innerhalb der Belastungsgrenzen beziehungsweise des geforderten Redundanzgrades sicherstellen. In Verbindung mit der Auslastung einzelner Komponenten geben auch Temperaturwerte Aufschluss über den Betrieb im sicheren Arbeitsbereich.
In modernen Rechenzentren ist die mechanische Trennung von warmer Abluft und kalter Zuluft durch Einhausungen oder Luftführungen üblich. Dabei sind die Kaltlufttemperaturen, die am Besten möglichst nah vor den Lufteintrittsöffnungen der IT-Geräte gemessen werden, die ausschlaggebende Größe. Der akzeptierte Bereich der Ansaugtemperatur reicht mittlerweile von 18 bis 27 Grad Celsius (vgl. ASHRAE 9.9, 2011). Je höher die Ansaugtemperatur gewählt wird, desto vielfältiger ist die Auswahl an Kühlungstechnologien und desto weniger elektrische Energie muss in die Klimatisierung gesteckt werden.
Zur Erfassung der Daten steht eine ganze Reihe von Sensoren im Rechenzentrum zur Verfügung: Von Zutrittskontrollsystemen über Bewegungs- und Erschütterungsmelder bis hin zu Sensoren für Luftfeuchtigkeit, Leckagen, Luftströmung oder Drücke. Intelligente Kommunikation wird genutzt, um beispielsweise die Lüfterdrehzahlen der Klimageräte an die tatsächliche Auslastung und die Druckverhältnisse anzupassen. Dabei verschwimmen die Grenzen zwischen Gebäudeautomation und Rechenzentrums-Monitoring sowie zwischen Facility- und IT-Management zusehends.
Alle erfassten Messdaten werden direkt oder durch Protokollkonverter über ein TCP/IP-Netzwerk gebündelt, auf einem Server gesammelt und von einer Management-Software ausgewertet. Der Server kann entweder als Hardware oder als virtuelle Maschine ausgeführt werden. Durch individuell auswählbare Software-Module kann das System vom zentralen Monitoring bis hin zu einem ganzheitlichen Datacenter-Infrastructure-Management (DCIM) skaliert werden. Dabei stehen die optimale Nutzung von Strom, Kühlung, Platz und Netzwerk im Vordergrund. Weitere Funktionen wie Capacity- und Change-Management, Inventarisierung, Berichtserstellung und Trendanalysen sind ebenfalls bei heutigen DCIM-Software-Suites integriert.
Durch die Vernetzung des DCIM-Systems mit der Virtualisierungsebene der IT-Geräte (Vmware, VMM) kann man an dieser Stelle auch von M2M-(Machine-to-Machine-)Kommunikation sprechen. Ein Beispiel ist die Verlagerung von virtuellen Maschinen auf andere Server, wenn das DCIM-System eine drohende Überhitzung am ursprünglichen Betriebsort meldet. Intelligente DCIM-Software trägt so zu einem betriebssicheren und energieeffizienten Rechenzentrum bei.