Rechenzentren stehen vor der Herausforderung, immer nachhaltiger zu werden. Dabei ist die Kühlung eine der wichtigsten Stellschrauben. Doch welche Kühlmethoden gibt es überhaupt? Und welche können effektiv und nachhaltig sein?
Die effiziente Kühlung von Rechenzentren ist eine der größten Herausforderungen für die IT-Branche. Während es bei den Computer-, Speicher- und Netzwerktechnologien in schneller Folge zu Innovationen kam, hat sich die Kühltechnik nur sehr langsam verändert. Zwei Faktoren haben dies in letzter Zeit geändert und neue Ansätze für die Kühlung von Rechenzentren befördert. Einer dieser Faktoren ist die Notwendigkeit, nachhaltigere Rechenzentren zu bauen und die Energieeffizienz bestehender Rechenzentren zu erhöhen. Die wichtigsten Akteure der Branche haben sich mit dem Climate Neutral Data Centre Pact (CNDCP) formal zu nachhaltigeren Rechenzentren verpflichtet. Darin wird gefordert, dass Rechenzentren bis zum Jahr 2030 klimaneutral sein müssen. Um dieses Ziel zu erreichen, sind effizientere Kühlmethoden erforderlich. Der zweite Faktor, der Innovationen bei Kühltechnologien vorantreibt, ist die zunehmende Verdichtung von Rechenzentren. Insbesondere Anwendungen wie Künstliche Intelligenz und fortschrittliche Analytik erfordern Hochleistungsrechner, die hohen Anforderungen an die Kühlung stellen.
Allem voran ist jedoch anzumerken, dass oftmals ein grundsätzliches Problem besteht. Viele Rechenzentren werden mit einer viel niedrigeren Temperatur betrieben als technisch erforderlich. Das treibt den Energieverbrauch und die Kosten unnötig in die Höhe. Als Faustregel gilt, dass jede neue Generation von Mikroprozessoren nicht nur leistungsfähiger, sondern auch widerstandsfähiger gegen Hitze ist. Moderne Rechenzentren müssen daher nicht mehr mit den gleichen niedrigen Temperaturen betrieben werden wie vor Jahren und Rechenzentrumsmitarbeiter in Winterkleidung sollten der Vergangenheit angehören. Betreiber von Rechenzentren sollten daher regelmäßig prüfen, welche Temperatur für einen zuverlässigen und effizienten Betrieb ihrer Geräte erforderlich ist, und ihre Kühlungsrichtlinien entsprechend anpassen. Je homogener die Ausstattung eines Rechenzentrums ist, desto mehr steht den Betreibern diese Option offen. Colocation-Anbieter beispielsweise müssen eine Vielzahl unterschiedlicher Gerätetypen berücksichtigen. Dabei bestimmen die am wenigsten temperaturtoleranten Geräte die höchstmögliche Temperatur für das gesamte Rechenzentrum, es sei denn, das Rechenzentrum ist in verschiedene Kühlzonen unterteilt. Hyperscaler und andere Unternehmen, die ihre eigenen Rechenzentren betreiben, verfügen dagegen in der Regel über eine sehr viel homogenere Ausstattung und können daher durch höhere eingestellte Temperaturen erhebliche Schritte zur Optimierung der Kühlung unternehmen.
Freie Kühlung gewinnt immer mehr an Bedeutung. Hier wird kalte Außenluft zur Kühlung der IT-Systeme im Rechenzentrum verwendet, ohne dass eine Klimaanlage zum Einsatz kommt. Kalte Luft wird von außen in das Rechenzentrum geleitet, die Luft strömt über Kühlrippen oder andere Wärmetauscher, um den IT-Systemen Wärme zu entziehen, und die erwärmte Luft wird dann wieder nach außen geleitet. Die Luft zirkuliert durch das Rechenzentrum und kühlt die IT-Systeme kontinuierlich. Da keine Klimatisierung erforderlich ist, kann diese Technik den Energieverbrauch um bis zu 90 Prozent senken.
Die Freikühlung hat jedoch eine Reihe von Einschränkungen. Erstens ist ein relativ großes System erforderlich, um genügend kühle Luft in das Rechenzentrum zu leiten. Dies kann vor allem in bestehenden Gebäuden eine Herausforderung sein, in denen die erforderliche Infrastruktur möglicherweise nicht vorhanden ist. Auch die Qualität der Außenluft kann ein Problem darstellen und die Lebensdauer der IT-Systeme verkürzen. Leider ist die Luftqualität dort, wo sich große Rechenzentren in Mitteleuropa befinden, meist nicht die beste. Man denke nur an Frankfurt am Main oder den Flughafen Schiphol in den Niederlanden. Der größte Nachteil der Freikühlung ist der offensichtlichste: Ihre Nützlichkeit hängt stark von den Umgebungstemperaturen ab. Daher wird die Freikühlung umso häufiger eingesetzt, je höher im Norden die Rechenzentren liegen. Für Deutschland kann die Freikühlung eine gute Option sein, wenn sie mit anderen Technologien kombiniert wird, weil sie im Winter als Einzellösung gut funktioniert, in anderen Jahreszeiten jedoch weniger. In Anbetracht des Klimawandels wird das Zeitfenster, in dem die Freikühlung in Deutschland als Einzellösung eingesetzt werden kann, immer kleiner.
Die zunehmende Verbreitung der Flüssigkeitskühlung ist vor allem auf die wachsende Dichte der Rechenressourcen zurückzuführen. Zwar gibt es für Racks, die mehr als 20 kW verbrauchen, luftbasierte Kühlungsoptionen, doch sind diese oft umständlich zu installieren und nicht einfach zu warten. 20 kW sind gemeinhin die Grenze, ab der sich das Verhältnis von Aufwand und Ertrag in Richtung Flüssigkeitskühlung neigt. Aus diesem Grund wenden sich Eigentümer und Betreiber von Rechenzentren jetzt vorsichtig dieser Technik zu. Die fortschrittlichsten Kühlmethoden, die derzeit von den Betreibern von Rechenzentren getestet und angewendet werden, fallen in diese Kategorie. Dabei ist das Konzept als solches nicht neu. Flüssigkeiten können ein hervorragendes Wärmeübertragungsmedium sein und verschiedene Formen der Flüssigkeitskühlung gibt es bereits seit Jahrzehnten. Das erste Beispiel für Flüssigkeitskühlung in der Computerindustrie ist wahrscheinlich das System/360 von IBM, das in den frühen 1960er Jahren eingeführt wurde. Wenn man heute über Flüssigkeitskühlung in Rechenzentren spricht, kann man sich auf verschiedene Technologien beziehen, die in eine von zwei Kategorien fallen: direkte Flüssigkeitskühlung auf dem Chip und immersive Flüssigkeitskühlung.
Dabei kann auch nicht immer irgendeine Flüssigkeit verwendet werden. So erfordern die meisten immersiven Kühlmethoden eine dielektrische Flüssigkeit. Ein Dielektrikum ist eine elektrisch nicht leitende Flüssigkeit. Bei diesen Flüssigkeiten gilt dies selbst für hohe Spannungen. Es gibt eine ganze Reihe von dielektrischen Flüssigkeiten, die sich grob in zwei Kategorien einteilen lassen: Fluorchemikalien und Kohlenwasserstoffe. Fluorchemische Flüssigkeiten haben im Allgemeinen einen niedrigeren Siedepunkt und werden daher vorwiegend für die zweiphasige immersive Kühlung verwendet. Die meisten Kohlenwasserstoffe sind brennbar und/oder entflammbar und werden daher in der Regel für einphasige Anwendungen eingesetzt.
Welches Verfahren und welche Kühlflüssigkeit ein Betreiber verwendet, hängt stark von der jeweiligen Anwendung ab. Eine Frage gilt jedoch für die Kühlflüssigkeit im Allgemeinen: Ist sie ökologisch nachhaltig? Während die Tauchkühlung sehr effizient ist und ihr geringer Energieverbrauch ökologische Vorteile mit sich bringt, können die Kühlflüssigkeiten Bedenken erregen, da es sich im Wesentlichen um synthetische Öle handelt. Es gibt daher bereits Unternehmen, die pflanzliche Alternativen herstellen, die erdölbasierte Kühlmittel in Rechenzentren ersetzen sollen. Betreiber, die ihre Verpflichtung zur Nachhaltigkeit ernst nehmen, sollten diese Alternativen in Betracht ziehen.
Bei Direct-to-Chip-Kühlung gibt es zwei unterschiedliche Formen: die einphasige und die zweiphasige. Einphasige Direct-to-Chip-Kühlung ist eine Methode, die von Desktop-PCs bekannt ist. Ein flüssiges Kühlmittel wird direkt zur CPU oder GPU eines Servers geleitet, wobei eine Kühlplatte direkt auf dem Chip platziert wird. Die elektrischen Komponenten sind nie in direktem Kontakt mit der Kühlflüssigkeit. Diese Methode erfordert zwar eine viel kleinere Luftkühlungsinfrastruktur, aber dennoch sind Lüfter erforderlich, um die ordnungsgemäße Funktion der Hardware zu gewährleisten. Sie erzeugen einen Luftstrom durch den Server, um die Restwärme abzuführen.
Die zweiphasige Direct-to-Chip-Kühlung unterscheidet sich in einem wesentlichen Punkt von der einphasigen Methode. Während bei letzterer das Kühlmittel seinen Zustand nicht von einer Flüssigkeit zu einem Gas wechselt, verändert es bei der Zweiphasen-Direktkühlung den Zustand von einem Gas zu einer Flüssigkeit und zurück, während es den Kühlkreislauf durchläuft. Während bei einphasigen Direct-to-Chip-Systemen Wasser oder ein Dielektrikum als Kühlmittel verwendet werden kann, benötigen Zweiphasensysteme zwingend ein Dielektrikum. Zweiphasige Systeme sind im Allgemeinen besser in Bezug auf die Wärmeabfuhr als einphasige Systeme und haben ein geringeres Leckage-Risiko, weil sich der Zustand der Kühlflüssigkeit ändert. Sie erfordern jedoch zusätzliche Kontrollen, wodurch sich die Wartungskosten während der Lebensdauer des Systems erhöhen.
Immersive Flüssigkühlung ist in drei Hauptmethoden zu unterscheiden: einphasige IT-Gehäusekühlung, Einphasenkühlung mit offener Wanne sowie Zweiphasenkühlung mit offener Wanne. Bei der einphasigen IT-Gehäusekühlung steht eine einphasige dielektrische Flüssigkeit in direktem Kontakt mit den IT-Komponenten. Die Hardware ist ganz oder teilweise in diese Flüssigkeit eingetaucht und führt die Wärme von den Quellen ab. Die Kühlung kann entweder passiv durch Konduktion oder aktiv durch Pumpen erfolgen. Sowohl die Wärmetauscher als auch die Pumpen befinden sich im Inneren des Gehäuses oder seitlich davon, wo die Wärme von der Flüssigkeit auf einen Wasserkreislauf übertragen wird. Da bei dieser Methode keine Lüfter zum Einsatz kommen, ist ihr Betrieb nahezu geräuschlos.
Die zweite Variante ist die Einphasenkühlung mit offener Wanne, bei der die IT-Ausrüstung vollständig in Flüssigkeit getaucht ist. Das Rack wird auf die Rückseite gelegt und mit dielektrischer Flüssigkeit gefüllt. Das bedeutet, dass die Server nicht wie üblich waagerecht, sondern senkrecht montiert werden. In der Regel sind Systeme, die diese Methode verwenden, mit zentralen Stromversorgungen ausgestattet, und das natürliche Dielektrikum wird über einen Wärmetauscher mit Hilfe einer Pumpe, die entweder innerhalb oder außerhalb der Wanne installiert sein kann, oder durch Konvektion abgekühlt.
Die dritte Methode der immersiven Flüssigkeitskühlung ist die zweiphasige offene Wanne. Der Unterschied zwischen dieser Methode und der einphasigen offenen Wanne ist vergleichbar mit dem Unterschied zwischen der einphasigen Direktkühlung und der zweiphasigen Direktkühlung. Bei Zweiphasensystemen mit offener Wanne kann das Dielektrikum bei Erwärmung seinen Zustand von Flüssigkeit zu Gas ändern. Untergetauchte Teile erzeugen Wärme, wodurch die Flüssigkeit in ein Gas umgewandelt wird, das an die Oberfläche aufsteigt und an einer Spule kondensiert und von selbst im flüssigen Zustand wieder nach unten fällt, sobald es sich ausreichend abgekühlt hat.
Unabhängig davon, welche Kühlmethode ein Rechenzentrumsbetreiber anwendet, sollte er stets darauf achten, die Abwärme wiederzuverwenden, um das Nachhaltigkeitspotenzial der gewählten Methode voll auszuschöpfen. Selbst bei den fortschrittlichsten Kühlmethoden fällt immer Abwärme an, die je nach den spezifischen Umständen auf unterschiedliche Weise wiederverwendet werden kann. Die Beheizung der Büros im Rechenzentrumsgebäude oder die Einspeisung der Abwärme in ein Fernwärmenetz sind nur zwei naheliegende Beispiele.
Ökologische Erwägungen sowie die ständig wachsende Dichte der Rechenzentrumsinfrastruktur erfordern ein Umdenken in der Rechenzentrumsbranche bei der Kühlung. Sowohl die Freikühlung als auch die Flüssigkeitskühlung können dazu beitragen, die Kühlung von Rechenzentren nachhaltiger zu gestalten. Die Flüssigkeitskühlung wird derzeit jedoch nur von fortschrittlicheren Marktteilnehmern eingesetzt. Das Haupthindernis für eine breite Akzeptanz dieser Technologie ist der Mangel an Standards durch die zuständigen Gremien. Technisch gesehen ist die Flüssigkeitskühlung in Rechenzentren startklar.
Simon Harris, Head of Critical Infrastructure bei Business Critical Solutions