Wo der technische Fortschritt die IT-Landschaft nachhaltig verändert, können konventionelle Deployment-Prozesse mit den jüngsten Innovationssprüngen oft nicht mehr Schritt halten. Sogenannte Pod-Frames sollen diesen Missstand beheben und vor allem eines bieten: schnelle und kostengünstige Bereitstellung.
Jährliche Wachstumsraten von 17 Prozent, 3,2 Milliarden Euro Umsatz (2015), rund 20 Prozent Anteil an der gesamten Datacenter-Fläche in Deutschland. Die Zahlen einer aktuellen Eco-Studie sprechen für sich: Der Markt für Colocation und Housing ist im Aufschwung. Doch so rosig die Zahlen, so umkämpft ist der Markt. Colocation-Anbieter müssen jederzeit neue IT-Ressourcen bereitstellen können - schnell, kostengünstig und in großem Maßstab. Diese Anforderungen haben Konzeption, Aufbau und den Betrieb moderner Rechenzentren - insbesondere im Colocation-Bereich - stark verändert.
Standardisierung, Modularisierung, konvergente und hyperkonvergente Infrastrukturen geben die Richtung vor. In den USA fordern viele Experten bereits eine Abkehr von der konventionellen Three-Tier-Architektur, die, so die gängige Meinung, mit den gegenwärtigen Entwicklungen und Anforderungen schon bald nicht mehr Schritt halten kann. Die Experten plädieren für neue, innovativere Designs und Architekturen.
Ein solcher Ansatz ist das Core- und Pod-Design. Ein Konzept, das von den großen US-amerikanischen Hyperscale- und Colocation-Rechenzentren entwickelt und als horizontale Scale-out-Lösung konzipiert wurde; also im starken Kontrast zum kostspieligen Scale-up-Modell von Three-Tier-Systemen steht. Ihm liegt der Schlüsselgedanke zugrunde, dass Hyperscale-Rechenzentren nicht von Beginn an vollständig ausgebaut werden, sondern organisch in inkrementellen Kapazitätsblöcken wachsen. Dabei bilden sogenannte Pods das Herzstück dieser neuen Architektur. Es lohnt sich demnach, genau zu betrachten, was genau Pods eigentlich sind, wie sie aufgebaut sind und welchen Mehrwert sie bieten.
Raum-in-Raum-Pods bestehen aus durchschnittlich zwölf bis 16 Racks, und zwar in Reihe oder in Reihenpaaren aufgestellt. Diese Racks sind zu einer autonomen Einheit zusammengeschlossen - dem Pod - und direkt mit dem Core Layer des Rechenzentrums verbunden. Jede Einheit verfügt über integrierte Server-, Storage- und Netzwerkkomponenten sowie eine gemeinsame Stromversorgung und Klimatisierung. Grundsätzlich gilt: Pods werden stets als Einheit konzipiert, als Einheit installiert und als Einheit ausgemustert. In der Praxis setzt der Betreiber meist mehrere Pods gleichzeitig ein und lässt sie parallel zueinander, aber unabhängig voneinander arbeiten. Die Unterscheidung der Pods geschieht in aller Regel nach Generationen, etwa v1, v2 und v3. Dabei baut jede Generation auf der vorangegangenen Generation auf und entspricht somit der aktuellen Hardware und Technik.
Kernidee von Pod-Architekturen ist es, den Aufwand für Planung, Installation und Betrieb größerer IT-Kapazitäten auf ein Minimum zu reduzieren. Benötigt der Betreiber zusätzliche Rechenleistung, müssen nicht alle drei Schichten der Three-Tier-Architektur ersetzt oder erneuert werden, es ist lediglich ein neuer Pod an den Core Layer anzuschießen. Dieser kommt gewissermaßen von der Stange. Er lässt sich im Vorfeld konfigurieren und zusammenstellen und anschließend wie ein standardisierter Modulbaustein in das Rechenzentrum implementieren. Ein Ansatz, der nicht nur für große Colocation- und Enterprise-Rechenzentren, sondern auch für kleine und mittelgroße Datacenter bedeutsam ist. Denn gleichgültig, welche Wachstumsstrategie und welche Geschäftsziele momentan im Fokus stehen, der Pod-Ansatz gibt RZ-Betreibern die Möglichkeit, klein anzufangen, bei Bedarf rasch zu skalieren und ihren Kunden stets genau auf den jeweiligen IT-Bedarf zugeschnittene Umgebungsvariablen und Redundanz-Level zur Verfügung zu stellen.
Die vielleicht größte Stärke von Pod-Architekturen ist das zugrunde liegende Raum-in-Raum-Konzept. So lassen sich Pods entweder kunden- oder branchenspezifisch betreiben: Jeder Kunde erhält dabei einen eigenen Pod beziehungsweise ist einem Pod zugewiesen, oder einzelne Einheiten sind auf spezifische Anwendungen und Redundanzlevel ausgelegt. Im letzteren Fall sind zum Beispiel kritische Anwendungen in einem bestimmten Pod gruppiert und über eine doppelte Stromversorgung abgesichert. Weniger kritische Lasten arbeiten von diesem Pod getrennt und erhalten einen eigenen Pod mit einfacher Stromversorgung. Diese Grundidee lässt sich beliebig ausbauen: Pods mit niedriger Rack-Dichte, Pods mit hoher Rack-Dichte, Pods mit zusätzlicher Seitenkühlung, Pods für Storage-Umgebungen, Pods für OCP-Architekturen oder Pods für hyperkonvergente Umgebungen. Die Infrastruktur kann also exakt die jeweiligen spezifischen Anforderungen bedienen und abbilden. Zugleich erlaubt der Raum-in-Raum-Ansatz eine große Zahl an koexistierender Designs und Techniken innerhalb eines einzigen Rechenzentrums, ohne dabei im Chaos tausender Einzelsysteme zu versinken, da die internen Bedingungen des Pods immer einheitlich bleiben.
Doch so fortschrittlich und innovativ Pod-Architekturen auch sein mögen, so traditionell und unzeitgemäß sind oft die gängigen Bereitstellungsmethoden. Üblicherweise sind beispielsweise die Netzwerkkabel über Deckenrastersysteme verteilt, die wiederum über jeden einzelnen Pod anzubringen sind. Kabelpeitschen zur Stromversorgung sind dagegen mittels Unterflur-Kabelrinnen unter den Doppelboden und von dort über Plattenausschnitte an die einzelnen Pods oder Racks geführt. Anschließend wird die Einhausung noch direkt mit den 19-Zoll-Racks verschraubt. Diese Verfahren haben sich zweifelsohne bewährt, können jedoch mit der eigentlichen Leitidee von Pod-Architekturen nicht Schritt halten: schnelle, kostengünstige Bereitstellung, minimierter Aufwand, hohe Effizienz.
Allein die Baumaßnahmen zur Installation der großflächigen Decken- und Bodenstrukturen sind aufwändig, kostspielig und zeitraubend. Erfolgt die Verlegung der Elektrokabel dann noch im Unterflur - eine Praxis, die eigentlich zu vermeiden ist -, arten die Montagearbeiten erst recht zu einem komplizierten und langwierigen Prozess aus. Außerdem muss bereits im Vorfeld die Deckenstärke evaluiert und gegebenenfalls angepasst werden, da sich die komplexen Deckenrastersysteme nicht ohne vorangegangene Prüfung montieren und mit zusätzlichen Lasten bestücken lassen. Handelt es sich dann auch noch um ein Mietobjekt, muss der Betreiber unter Umständen - etwa bei substanziellen Eingriffen in die Gebäudestruktur - auch noch die Baugenehmigung des Eigentümers abwarten, bevor die Installation überhaupt erst beginnen kann.
Einhausungssysteme unmittelbar an den Racks zu montieren, ist ebenfalls eine folgenschwere Praxis. Denn dies macht die Racks zu einem strukturellen Baustein der gesamten Konstruktion. Das heißt im Umkehrschluss, erst wenn die komplette Infrastruktur - Einhausungssystem, Deckenrasterstruktur, Unterflur-Kabelrinnen etc. - ausgebaut ist, lässt sich die eigentliche IT bereitstellen. Solange die Baumaßnahmen an den Racks nicht abgeschlossen sind, kann der Betreiber die sensible Server- und Netzwerktechnik nicht in die Racks integrieren. Diese wird in aller Regel erst im Anschluss an das Projekt eingebaut.
Ein solcher Ansatz verzögert nicht nur die Inbetriebnahme der Pods, sondern bringt auch einen ganz schlichten, aber gravierenden Nachteil mit sich: Die physische Infrastruktur lässt sich nicht unabhängig von den IT-Racks installieren und daher auch nicht im Vorfeld bereitstellen. Die Colocation-Anbieter müssen also stets auf die Racks der Mieter warten, bevor sie das Pod-Buildout abschließen können.
Aber auch wenn der Pod einmal steht und in Betrieb ist, bieten herkömmliche Einhausungen nicht die erforderliche Flexibilität für rasche Um- und Ausbauarbeiten. Gleichgültig, ob ein Rack in den Pod integriert, dem Pod entnommen oder schlicht ausgetauscht werden soll, sind zunächst die Platten, eventuell auch die Türen der Einhausung abzuschrauben und zu entfernen, und zwar nur, um sie anschließend wieder an die Racks zu montieren. Dabei gefährdet jede Umbaumaßnahme stets auch die Integrität der betroffenen IT-Systeme und nimmt wertvolle Zeit in Anspruch.
Die Stolpersteine und Schwachstellen traditioneller Bereitstellungsmethoden sind zwar schon lange bekannt, moderne Lösungsansätze hingegen rar. Die einzig echte Alternative sind sogenannte Pod-Frames. Stark vereinfacht lassen sich diese als Rahmen- und Montagesysteme für Pods mit einer Größe von acht bis zwölf Racks beschreiben. Das Kernelement von Pod-Frames ist eine freistehende Rahmenstruktur mit integrierter Einhausung. Auf dieser Rahmenstruktur sind verschiedene Montageschnittstellen zur Anbindung von Infrastrukturkomponenten wie Netzwerk, Strom und Kühlung angebracht.
Frame-Systeme versprechen vor allem eine schnelle und kosteneffiziente Bereitstellung. Daher sind Pod-Frames so konzipiert, dass die baulichen Eingriffe in das Rechenzentrum auf ein Minimum beschränkt bleiben und die Installation neuer Kapazitäten mehr an ein Montageprojekt als an ein invasives Bauvorhaben erinnert, ähnlich dem Prinzip eines Baukastensystems. So ist im Frame-basierenden Ansatz beispielsweise die Einhausung an der Rahmenstruktur angebracht und nicht wie bei herkömmlichen Verfahren an den Racks selbst. Allein diese simple Änderung zahlt sich bereits aus. Denn dies bricht die bis dato starre Grundstruktur - Racks als integraler Baustein der Einhausung und folglich der ganzen Installation - endlich auf. In der Konsequenz lässt sich dadurch die gesamte Infrastruktur bereits im Vorfeld ausbauen, und zwar unabhängig von den verwendeten IT-Racks. Diese kann der Betreiber dann parallel zur Pod-Montage oder im Anschluss schon komplett bestückt in Position rollen. Aber auch im laufenden Betrieb lassen sich die Racks nun bequem austauschen, ohne dabei Platten, Türen oder andere Baugruppen abschrauben und entfernen zu müssen.
Zeit-, Kosten- und Materialeinsparungen - diese Vorgaben sind auch in die Konzeption des kritischen Strompfades und der Netzwerkanbindung eingeflossen. Im Pod-Frame-Szenario sind daher sowohl die Daten- als auch die Stromkabel oberirdisch mit dem Pod-Frame verbunden. Hierzu nutzt man spezielle Überkopf-Montagesysteme mit verstellbaren Kragarmen. An diese Kragarme werden die Strom- und Datenkabel geführt und an die Racks verteilt. Diese unscheinbare Maßnahme hat großen Einfluss auf die Decken- und Bodenstruktur.
Der offensichtliche Effekt: Stromkabel müssen nicht mehr im Doppelboden verlegt sein. Folglich müssen keine Unterflur-Kabelrinnen installiert, keine Kabelausschnitte angebracht und auch keine Halter und Bürstenstreifen in den Ausschnitten platziert werden. Der Doppelboden lässt sich vielmehr so nutzen, wie vorgesehen, nämlich ausschließlich zur reinen Kaltluftverteilung. Der weniger offensichtliche Effekt: Der Einsatz der Überkopf-Kragarme vermeidet auch die großflächigen, materialintensiven Deckenrastersysteme. Diese sind nur noch für die Hauptverkabelung nötig und müssen nicht mehr über jedem einzelnen Pod angebracht sein. Die Verteilung der Strom- und Datenkabel geschieht mithilfe der Kragarme.
Doch bei aller Euphorie, ein Pod-Frame ist wertlos, wenn er nur ganz bestimmte Konfigurationen bedienen kann. Wenn also etwa der Pod selbst flexibel ist, nicht jedoch der Frame. Effiziente Frame-Systeme müssen daher sowohl räumlich als auch technisch an verschiedene Umgebungen und Anforderungen angepasst werden können. Eine vielversprechende Lösung bietet beispielsweise APC by Schneider Electric. Mit dem sogenannten HyperPod hat der Hersteller eine Frame-Architektur entwickelt, die sich in der Länge, der Breite und in der Höhe variabel einstellen lässt. Mit Hilfe von ausziehbaren Horizontalträgern kann der Installateur etwa die Ganglänge verlängern oder verkürzen.
Ähnliches gilt für die Ganghöhe, die sich via Vertikalpfosten und Teleskopstreben individuell konfigurieren lässt. Dank Höhenadapter kann das Einhausungssystem zudem verschiedene Rack-Höhen in einer Pod-Einheit aufnehmen. Einzige Voraussetzung: Die Deckenhöhe beträgt mindestens 3,5 Meter. Diese Bauweise bietet Colocation-Anbietern die Freiheit, Pod-basierende IT-Umgebungen bedarfsgerecht zu planen, zu installieren und zu betreiben - oder auch jederzeit zu verändern. Die freistehenden Hyper-Pod-Frames sind auch im laufenden Betrieb rasch auszubauen. Wie bei einem Andocksystem müssen zusätzliche Racks nur noch in den bestehenden Pod integriert und in Betrieb genommen werden. Und vielleicht noch wichtiger: Die Frames sind mit allen aktuellen Rack-Systemen kompatibel, unabhängig von Hersteller, Form und Größe.
Aber auch auf der Ebene der physischen Infrastruktur kommen Hyper-Pod-Systeme den technischen Anforderungen von Pod-Architekturen entgegen. Sie unterstützen beispielsweise sowohl Warmgang- und Kaltgangeinhausungen als auch Reihen-, Raum- und Außenkühllösungen. Die Konfiguration der Stromversorgung bietet ähnlich viele Optionen, angefangen bei der Integration von Verteilertafeln über hängende Stromschienen bis hin zu reihenbasierenden modularen Unterverteilern.