Thermische Hotspots
- Optimierungspotenziale im Datacenter
- Kosten, Kosten, Kosten
- Extrem hohe Energiekosten durch Überkühlung
- Thermische Hotspots
- Freie Kühlung
- Gleichstrom anstatt Wechselstrom
- Netzwerkkonsolidierung
- Monitoring
- Fazit
- Expertenkommentar: Wer nichts misst, weiß nichts!
- Expertenkommentar: Ganzheitliches Energiemonitoring
- Expertenkommentar: Es liegt Geld in der Außenluft
- Expertenkommentar: Wirkungsgrad
- Expertenkommentar: Virtualisierte Server – da geht noch was
- Expertenkommentar: Kühlung mit Grundwasser spart signifikant
- Expertenkommentar: Stromverbrauch auch bei geringer Auslastung reduzieren
Eine auslastungsbedingte Schwankung der Leistungsaufnahme hat jedoch gleichzeitig eine Schwankung der Wärmeentwicklung durch die Server zur Folge. Diese Schwankung hat in Verbindung mit den hohen Energiedichten heutiger Server zudem starken Einfluss auf die Anfälligkeit für thermische Hotspots und ebenso auf die Alterungseffekte der Hardware. Bei thermischen Hotspots handelt es sich um eine örtlich begrenzte Überhitzung von Servern, verursacht durch Wärmestaus, die zu temporären Ausfällen oder gar Zerstörung der Hardware führen kann. Grund hierfür sind typischerweise eine stark schwankende Auslastungen der Server in Verbindung mit schlechtem Raumdesign oder unzureichender Klimatisierung.
Durch eine dynamischen Lastverschiebung, wie diese heute durch die Virtualisierung genutzt wird, lassen sich Hotspots am Server vermeiden. Komplexer gestaltet es sich jedoch, die Auslastungsauswirkung der einzelnen Server auf die Temperaturverteilung im Raum abzuschätzen, wie es für eine lastabhängige Temperaturregelung notwendig ist. Es spielen hierbei viele Faktoren (beispielsweise das Raumdesign, das Temperaturverhalten anderer Server, die Klimatisierung und deren Luftströmungen) eine Rolle, die zum Teil schwer zu charakterisieren sind oder sich zur Betriebszeit dynamisch ändern. Eine genaue Vorhersage erfordert daher ein entsprechendes Energie-, Last- und Temperaturmanagement.