Das wirtschaftliche Umfeld ändert sich und mit ihm die Anforderungen an die IT und an Rechenzentren. Sie müssen wesentlich energieeffizienter und sicherer sein als noch vor fünf Jahren. Ein Überblick über neue Technologien und Konzepte, die vieles möglich machen.
Energieeffizienz und Umweltbilanz: Stromkosten sind wesentliche Kostentreiber. Die meisten älteren Rechenzentren erreichen im Schnitt einen Energieeffizienzwert (Power Usage Effectiveness, kurz PUE) von 2,3 . Bei einer durchschnittlichen IT-Leistung von zehn Kilowatt und einem Preis von 15 Cent/kWh entstehen allein durch den Betrieb der Server Stromkosten von rund 30.000 Euro pro Jahr. Einige neuere Rechenzentren bieten bereits einem PUE-Wert von 1,3, bei dem die Stromrechnung um rund 13.000 Euro pro Jahr niedriger ausfällt. Gleichzeitig verbessert sich die Umweltbilanz.
Um solch gute Werte zu erreichen, werden in der Regel neue Kühlsysteme genutzt wie beispielsweise die adiabatische Kühlung.
Sie macht sich zunutze, dass verdunstendes Wasser der Luft Wärme entzieht. Das Kühlsystem ist so effizient, dass einige Rechenzentren damit bei Außentemperaturen bis zu circa 27 Grad Celsius ohne zusätzliche Kühlung auskommen. Als Alternative kann eine sogenannte freie Kühlung genutzt werden, die allerdings nicht ganz so leistungsfähig ist. Dazu werden auf dem Dach des Gebäudes Rückkühler angebracht, die bis zu einer Temperatur von 18 Grad Celsius die Außenluft zur Kühlung der Server verwenden. Diese Maßnahmen senken nicht nur die Stromrechnung, sondern verbessern auch die Ökobilanz. Wer noch mehr tun will, kann sich einen Betreiber suchen, der ausschließlich Ökostrom nutzt.
Zertifizierungen und Sicherheit: Die im Rechenzentrumsumfeld relevanten ISO-Normen wie beispielsweise ISO 27001 drehen sich hauptsächlich um organisatorische Aspekte. Zertifizierungen, die sich auf die physische Sicherheit konzentrieren, haben eine höhere Aussagekraft, denn anders als bei ISO-Prüfungen gibt es weniger Interpretationsspielraum: Entweder es sind Kabelstränge in der vorgeschriebenen Form verlegt oder eben nicht.
Es gibt derzeit allerdings viele verschiedene Zertifizierungen in diesem Bereich, die nicht unbedingt miteinander vergleichbar sind. Vergeben werden sie von Verbänden oder dem TÜV. Dazu gehören beispielsweise die Zertifizierung als "Trusted Site Infrastructure", die im Bankenumfeld sehr beliebt ist, oder die Zertifizierung als "Reliable Data Center". Um das Zuverlässigkeits- und Sicherheitsniveau von Rechenzentren in Zukunft leichter beurteilen zu können und die Infrastruktur europaweit zu vereinheitlichen, wurde jetzt die DIN EN 50600 entwickelt. Sie berücksichtigt als erste DIN-Norm, dass Rechenzentren in vielen Bereichen Komponenten kritischer Infrastrukturen sind – beispielsweise im Gesundheitswesen, der Energieversorgung, im Finanzwesen oder der öffentlichen Verwaltung – und legt daher Wert auf Ausfallsicherheit.
Das Zertifikat gibt es in vier Klassen, wobei ein Rechenzentrum der Klasse eins bei Wartungsarbeiten oder technischen Störungen durchaus ausfallen kann. Bei Klasse drei wird dem durch redundant ausgelegte Systeme weitgehend vorgebeugt, während bei Rechenzentren der Klasse vier Betriebsunterbrechungen nahezu ausgeschlossen sind.
Da die Umsetzung der Norm aufwendig ist, werden in der Regel nur neue oder komplett renovierte Rechenzentren zertifiziert, da sie die Vorschriften bereits in der Planungs- und Bauphase berücksichtigen können. Auf die Dauer soll sich die Norm aber als Standard etablieren und für mehr Transparenz sorgen.
Standort: Die hohe Rechenzentrumsdichte rund um Frankfurt, Köln, Düsseldorf, München und Hamburg hat historische Gründe: Die meisten deutschen Datenzentren wurden vor vielen Jahren gebaut. Damals gab es nur wenige Datenautobahnen, die – abgesehen von der Nachfrage – die Standortauswahl stark einschränkten. Das ist heute anders, dennoch setzen die meisten Anbieter beim Ausbau nach wie vor auf dieselben Standorte, so dass Städte wie beispielsweise Bamberg, Hannover, Essen oder Jena das Nachsehen haben. Als Konsequenz müssen Unternehmen ihre Daten Hunderte von Kilometern zum Rechenzentrum schicken und weit reisen, wenn sie vor Ort Wartungsarbeiten oder Hardware-Änderungen durchführen wollen.
Während eine weite Anfahrt zwar nicht angenehm, aber in der Regel machbar ist, könnte sich der Datentransfer mittelfristig zum Problem entwickeln. Denn angesichts steigender Mengen, beispielsweise durch IoT, wird bereits überlegt, wie sich die Datenübertragung reduzieren lässt. Eine Methode wäre die dezentrale Speicherung und eine zentral gesteuert Analyse und Verarbeitung. Sprich: Colocation in der Nähe der eigenen Standorte.
Die hohe Rechenzentrumsdichte in bestimmten Städten bringt auch noch ein anderes Problem mit sich: Einen geeigneten Standort für ein Back-up-Rechenzentrum zu finden, ist schwierig. Denn für die Datenspiegelung darf es nicht weiter als 20 bis 30 Kilometer vom ersten entfernt sein, die unmittelbare Nachbarschaft hingegen bringt nur wenig Sicherheitsgewinn. Dass abseits der üblichen Knotenpunkte schnell neue Rechenzentren entstehen, ist unwahrscheinlich, denn die Bauzeit beträgt im Schnitt circa 24 Monate.
Es gibt jedoch bereits Konzepte, die es erlauben, innerhalb von sechs bis neun Monaten zu bauen. Damit könnte der Bedarf für ein Back-up-Rechenzentrum oder für Kapazitäten in der Nähe der eigenen Standorte relativ kurzfristig gedeckt werden. Für Unternehmen, die mehr als 500 Quadratmeter Fläche benötigen, kann am Wunschstandort in kurzer Zeit ein Rechenzentrum gebaut werden, das schnell auf bis zu 10.000 Quadratmeter erweiterbar ist.
Wolfgang Kaufmann ist Geschäftsführer von Datacenter One