Edge-Rechenzentren gewinnen zunehmend an Bedeutung, da sie eine Verarbeitung der Daten möglichst nahe am Entstehungsort ermöglichen. Das Energiemanagement kann dabei allerdings eine Herausforderung darstellen.
In vier Jahren werden etwa 75 Prozent aller Daten außerhalb zentraler Rechenzentren oder Cloud-Infrastrukturen verarbeitet, so Gartner. Die Verarbeitung der Daten am Netzwerkrand beziehungsweise an der Edge bietet dabei einige Vorteile, die nicht von der Hand zu weisen sind. Doch wie sieht es mit Energieeffizienz und Nachhaltigkeit aus?
Datenverarbeitung in der Nähe
Edge Computing meint die Verarbeitung der Daten nahe am Entstehungsort mit einer möglichst geringen Latenzzeit. Die Nähe zum Anwender ist dabei der entscheidende Vorteil. Durch die geringere Distanz können Daten schneller und vor allem sicherer übertragen werden. Außerdem werden viele der Daten zwar schnell generiert, aber nur einmal benötigt. Edge Computing kann diese Daten dezentral und direkt an den Enden des Netzwerks erfassen, verarbeiten, auswerten und bereinigen.
Neben der schnelleren Verarbeitung und Übermittlung bietet Edge Computing auch ein besonderes Maß an Skalierbarkeit. In einem dezentralisierten IT-Modell lassen sich relativ einfach zusätzliche Kapazitäten schaffen oder entfernen. Außerdem kann Edge Computing aus regulatorischer Sicht sinnvoll sein, wenn Daten aus Datenschutzgründen nicht in ein anderes Land transferiert werden dürfen.
Aufgrund der dezentralen Natur von Edge-Rechenzentren und der Vielfalt an Standorten stehen diese in Sachen Energiemanagement allerdings vor einigen Herausforderungen. Durch die verschiedenen Standorte von Edge-Rechenzentren ist eine einheitliche Verwaltung oft schwierig.
Zudem summiert sich der Energieverbrauch der einzelnen Rechenzentren zu einem enormen Kostenblock. Grund hierfür sind vor allem die Größe und die unterschätzte Menge an Daten, die in Edge-Rechenzentren verarbeitet werden.
Energieeffizienz messen
Entscheidende Messgröße für die Energieeffizienz von Rechenzentren ist der PUE-Wert (Power Usage Effectiveness). Der Kennwert informiert über den gesamten Energiebedarf des Rechenzentrums im Verhältnis zur benötigten Energie der IT-Komponenten. Ziel der Rechenzentrumsbetreiber ist es, diesen Wert durch eine Verbesserung der Infrastruktur mit modernen Technologien möglichst gering zu halten. Der PUE-Wert von Rechenzentren liegt im Durchschnitt bei 1,9. Wenn sich der Energiebedarf der Infrastruktur mit jenem der IT-Komponenten deckt, liegt ein PUE-Wert von zwei vor. Im Idealfall beträgt der PUE-Wert eins.
Aufgrund der massiv ansteigenden Zahl an Daten und dem entsprechenden Zuwachs an Rechenzentren wird auch bei Edge-Rechenzentren Nachhaltigkeit und Energieeffizienz immer wichtiger. Es existiert eine Reihe von Maßnahmen, die ihnen zu einem besseren PUE-Wert verhelfen können.
Kühlung und Abwärmenutzung
Besonders bei der Rechenzentrumskühlung lässt sich einiges an Energie einsparen. Es existieren verschiedene Kühlkonzepte für Rechenzentren wie etwa die Rack-, Reihen- oder Raumkühlung. Der oftmals durch die Kühlung verursachte enorme Stromverbrauch wirkt sich nicht nur ungünstig auf die Umwelt aus, sondern ist auch nachteilig für das Budget. Der energieeffiziente Betrieb von Rechenzentren wird häufig mit einer adiabaten Kühlung oder auch Verdunstungskühlung realisiert. Dabei wird der Luft durch die Verdunstung von Wasser Wärme entzogen. Die Lufttemperatur sinkt – und das ganz ohne Kältemittel. Die Anwendungen, die am Netzwerkrand verarbeitet werden, definieren allerdings die Verfügbarkeit und damit verbunden das Redundanzlevel der Kühl- beziehungsweise Klimaanlagen. Je nach Größe eines Edge-Datacenters ist gegebenenfalls auch gar keine Kühlung möglich. Doch was passiert mit der Energie, die das Rechenzentrum generiert? Sie bleibt häufig ungenutzt. Dabei bietet die Abwärme ein enormes Potenzial und kann nachhaltig verwendet werden, zum Beispiel für das Heizen von Wohnungen. Dieser Ansatz erfordert ein Verteilernetz, das die im Rechenzentrum erzeugte Abwärme an anderer Stelle verteilt. Die überschüssige Energie kann beispielsweise in das Fernwärmenetz eingespeist werden. Es existieren weitere innovative Ideen wie etwa das Heizen mit dezentralen Rechenzentren, die in Form von Serverschränken in Kellern von Wohnungen untergebracht sind.
Der Umwelt zuliebe
Edge-Rechenzentren sind oftmals mit Mikro-Rechenzentren gleichzusetzen. Dies können zum Beispiels Racks, Cages oder individuell benötigte Rechenzentrumsflächen sein. Colocation-Anbieter ermöglichen das Anmieten einer solchen Fläche. Diese Mikro-Rechenzentren profitieren von der Energieeffizienz des gesamten Rechenzentrums sowie der umfangreichen Expertise des Colocation-Anbieters in Sachen Betrieb und Wartung.
Die Grundlage für innovatives Energiemanagement liegt vor allem in der Bauweise der Edge-Rechenzentren. Bei modular konzipierten Rechenzentren werden alle Komponenten wie beispielsweise Kühlungssysteme oder Server in einzelne Module unterteilt. Die Module können passgenau nach Bedarf konstruiert und erweitert werden – auch während des laufenden Betriebs. Somit verbrauchen die Rechenzentren nur die Energie, die sie auch wirklich benötigen. Bei den Rechenzentrumsbetreibern ist ein Einstellungswandel hinsichtlich eines energieeffizienten Betriebs bereits festzustellen. Insbesondere vor dem Hintergrund der versiegenden endlichen Energiequellen gewinnen regenerative Energieressourcen wie Wind-, Wasserkraft oder Solarenergie an Bedeutung. Allerdings muss die Energie nicht nur grün gewonnen, sondern auch nachhaltig genutzt werden. Hierfür ist die Abwärmenutzung ein entscheidender Faktor, um ressourcenschonend zu handeln und einen energieeffizienten Betrieb von Rechenzentren sicherzustellen.
Wolfgang Kaufmann ist Geschäftsführer bei Datacenter One