Zum Inhalt springen
Netzwerkkritische physikalische Infrastrukturen

Modernes und effizientes Datencenter-Design

Höhere Stromdichten und die Nachfrage nach immer stärkerer Serverkonsolidierung in Rechen- und Datenzentren treiben die aktuelle Entwicklung integrierter Infrastrukturen voran.

Autor:Redaktion connect-professional • 26.9.2007 • ca. 6:40 Min

Die wesentlichen Einflussgrößen auf die Total-Cost-of-Ownership sind Investi- tions-, Stromverbrauchs- und Wartungskosten.irectory-Appliances.

Im Rahmen aktuell geführter Diskussionen um die Verfügbarkeit und Administrierbarkeit von Unternehmensnetzwerken werden zunehmend auch die zugrunde liegenden Sicherheitskonzepte kritisch betrachtet. Unter den Prämissen Flexibilität und Wirtschaftlichkeit etabliert sich momentan der Begriff der netzwerkkritischen physikalischen Infrastruktur (NCPI). Hinter diesem Ausdruck verbirgt sich eine integrierte Sicherheitsarchitektur der physikalischen Technologieebene von Rechen- oder Datenzentren bestehend aus den Bereichen Stromversorgung, Leistungsverteilung, Gehäuse, Verkabelung beziehungsweise Kabelverteilung sowie Kühlung und Belüftung. Moderne NCPIs sind modular und damit skalierbar aufgebaut und gewährleisten ein durchgängiges Management sämtlicher beteiligter Komponenten. Als Antriebsfedern dieser vergleichsweise neuen Entwicklung gelten die zunehmenden Forderungen nach kostenbewussteren Investitionen und höheren Verfügbarkeiten.

Kontraste zur gängigen Praxis

Mit der Infrastrukturpraxis der vergangenen Jahre haben solch revolutionäre Ansätze nur wenig zu tun. Analog zu proprietären Softwarelösungen mögen traditionelle Konzepte zwar effektiv sein, aus ökonomischer Sicht sind sie jedoch meist nicht mehr vertretbar, da nicht effizient genug. Viele IT-Räume beherbergen immer noch raumorientiert konstruierte Anlagen, die nicht selten auf 20 oder 30 Jahre alten Auslegungen mit Doppelboden-Kühlsystemen basieren. Solche meist auf den bloßen Stromschutz beschränkten Lösungen sind planerisch sehr aufwändig und kaum erweiterbar. Die auf Grund des langen Planungshorizonts tendenziell überdimensionierten Einrichtungen halten zudem meist ungenutzte Kapazitäten vor. Laut einer vom amerikanischen Infrastrukturexperten APC in Auftrag gegebenen Umfrage nutzen über 50 Prozent der betrachteten Installationen maximal 30 Prozent ihrer Kapazität. Die durchschnittliche Anfangslast beträgt dabei in der Regel gerade einmal 10 Prozent der Nennlast, die durchschnittliche Last während des restlichen meist 10-jährigen Lebenszyklus liegt der selben Untersuchung zufolge gerade einmal bei 30 Prozent. Direkte Folgen dieser Planungsgewohnheiten sind unnötig hohe Investitions- und Betriebskosten mit langen und kostenintensiven Wartungs- und Reparaturzeiten, die in der Summe deutlich zu Lasten der Total-Cost-of-Ownership (TCO) gehen. Ähnlich wie bei IT-Lösungen bilden die TCO auch für die wirtschaftliche Einschätzung von integrierten Infrastrukturlösungen eine maßgebliche Kennzahl.

Stellschrauben für mehr Wirtschaftlichkeit

Die wesentlichen Einflussgrößen auf die TCO sind Investitions-, Stromverbrauchs- und Wartungskosten. Modular aufgebaute, skalierbare Systeme bieten hier einen klaren Vorteil gegenüber klassischen Anlagen mit vorgehaltener Kapazität. Neben der TCO bestimmen zwei weitere Variablen den wirtschaftlichen Wert von Infrastrukturlösungen: die Verfügbarkeit der Architektur selbst und deren Flexibilität.

Die Verfügbarkeit hängt dabei maßgeblich von drei Faktoren ab: der Verfügbarkeit der einzelnen Komponenten wie unterbrechungsfreie Stromversorgungen (USVen), Stromverteiler (PDU) oder Lüftungselemente, der mittleren Reparatur- oder Wiederherstellungsdauer und der menschlichen Fehlbedienung. Bis zu 60 Prozent aller Ausfälle gehen nach Angaben verschiedener Marktforschungsunternehmen auf menschliche Fehlbedienung zurück. Maßgeblich daran beteiligt sind die ständigen Veränderungen in der IT-Umgebung, die laufend Anpassungen der Infrastruktur nach sich ziehen. Als wesentliche Merkmale moderner Infrastrukturlösungen gelten daher deren möglichst intuitive Bedienung und einfache Wartung. Die Verfügbarkeit der Einzelkomponenten einer Architekturlösung hängt stark von deren Standardisierungsgrad ab. Diese sollten möglichst vollständig modular aufgebaut, ab Werk vorkonfiguriert und während des laufenden Betriebs auszutauschen sein. Neben Ausfällen durch Fehlbedienung reduzieren Standardisierungen vor allem auch Konstruktions-, Planungs- und Schulungskosten. Zudem werden der Aufbau und das Testen am vorgesehenen Einsatzort beschleunigt.

Die Flexibilität einer NCPI drückt sich maßgeblich in der benötigten Implementierungszeit, der möglichen Skalierbarkeit und der Rekonfigurierungsdauer aus. Welchen Einfluss diese Größen auf die Wirtschaftlichkeit einer Lösung haben, zeigt sich beispielsweise bei einem Ortswechsel des Datencenters oder einer plötzlich notwendigen Kapazitätserweiterung. Denn während sich Serverkapazitäten in der Regel innerhalb von zwei Tagen aufstocken lassen, benötigen traditionelle Infrastrukturlösungen auf Grund ihrer Komplexität und des raumorientierten Designs bis zu einem Jahr an Planungs- und Implementierungszeit.

Interne Redundanz

Die Ausfallsicherheit der gewählten Infrastrukturlösung und damit die Verfügbarkeit der angeschlossenen Verbraucher leiten sich typischerweise vom gewählten Redundanzkonzept ab. Klassische N- oder 2N-Auslegungen erlauben Kapazitätserweiterungen nur durch eine zeitlich wie finanziell aufwändige Vervielfachung der eigenen Basiskapazität, was bei unzureichender Auslastung naturgemäß auch zu einer kostenintensiven Multiplikation der Kapazitätsüberdeckung führt. Die technologische Grundlage für flexibel skalierbare Infrastrukturlösungen bieten daher Modelle mit interner Redundanz, welche auch mit dem Ausdruck N+1 bezeichnet werden. Solche Lösungen lassen die bedarfsgerechte Erweiterung der gewünschten Kapazität beziehungsweise Redundanz in kleinen Schritten durch zusätzliche USV- und PDU-Module zu. Trotz der aufwändigeren Bauart bringt dies einen enormen finanziellen Vorteil mit sich. Denn für eine höhere Ausfallsicherheit muss nicht gleich die gesamte Kapazität verdoppelt werden. In einem System mit 10 kVA Gesamtleistung beispielsweise bedarf es hierfür lediglich eines dritten 5-kVA-USV-Moduls. Neben den redundanten USV-Einheiten sind solche Systeme idealerweise auch mit separaten Steuer-, Leistungs- und Batteriemodulen ausgestattet, die sich bei Bedarf während des Betriebs auswechseln lassen.

Für hoch verfügbare Lösungen empfehlen sich 2(N+1)-Auslegungen. Diese bestehen aus zwei Systemen mit interner Redundanz, wobei jedes für sich in der Lage ist, die gesamte Last zu versorgen. Ein typisches Anwendungsbeispiel hierfür sind hochverfügbare Datencenterinfrastrukturen mit mehreren Serverschränken, die von je zwei integrierten USV- und PDU-Racks eingefasst sind.

Zunehmende Bedeutung der Lüftungssysteme

Die Mehrheit der Marktforscher geht davon aus, dass bis zum Jahr 2007 jeder dritte ausgelieferte Server ein Blade-Server sein wird. Spätestens dann, sollte diese aktuelle Einschätzung zutreffen, werden viele Rechen- und Datenzentrumsbetreiber ihre Kühlungskonzepte überdenken müssen. Denn die höheren Leistungs- und Stromdichten intensivieren die Wärmeentwicklung – und das auf engstem Raum. Ausgehend von immer leistungsstärkeren Chips vermehrt sich die erzeugte Abwärme über die Server und die zunehmend enger bestückten Racks bis hin zum kompletten Datencenter mit seinen Infrastrukturkomponenten. Verstärkt wird dieser Effekt zudem von der steigenden Anzahl von Kabeln, die die Luftströmungen im Rack blockieren.

Die aktuelle Entwicklung der steigenden Leistungsdichten wurde ebenfalls von der Forschungsabteilung des Lösungsanbieters APC untersucht. Das ernüchternde Ergebnis: Die Kühlungspraxis hat sich seit 1965 nicht wesentlich verändert. Hinsichtlich zukünftiger Anforderungen zeigten die Umfrageergebnisse deutliche Parallelen zu denen der gesamten Infrastruktur, wie Redundanz, Skalierbarkeit, Bediener- und Wartungsfreundlichkeit sowie Administrierbarkeit und Wirtschaftlichkeit. Als Bestandteil einer integrierten Infrastrukturlösung entwickelte der Hersteller daher auch entsprechende aktive wie passive Subsysteme und kühlungsoptimierte Gehäuse, die in Abhängigkeit von der jeweiligen Leistungsgröße alle Anforderungen einer NCPI abdecken.

Speziell für hohe Leistungsdichten wurde in diesem Rahmen auch ein völlig neues Kühlungskonzept von bis zu 20 kW pro Rack entwickelt. Die spezielle Variante der integrierten und skalierbaren »InfraStruXure«-Lösung trägt bezeichnenderweise den Namenszusatz High-Density (HD) und erlaubt unter ausschließlicher Verwendung von Blade-Servern erstmals die volle Ausnutzung der räumlichen Schrankkapazitäten. Als grundlegendes Novum für Kühlungssysteme wurde dabei eine direkte Kopplung zwischen Kühlsystemen und abzuleitender Warmluft hergestellt. In einem Warmluftkorridor, der gleichzeitig als rückseitiger Zugang für das Servicepersonal dient, sammelt sich Abwärme, die abgesaugt wird, bevor die Umgebung eine kritische Temperatur erreicht. Dieses und ähnliche Konzepte erlauben somit Schrank-Konfigurationen, die sich trotz extrem hoher Leistungsdichte ohne kostenaufwändige Spezialanfertigungen ausfallsicher betreiben lassen. Um die Bewegungsfreiheit des Servicepersonals nicht einzuschränken, erfolgt die Steuerung des Luftstroms über spezielle Dachelemente und verschließbare Sicherheitstüren.

Weitere Entwicklungen zur raumbewussten Steigerung der Kühlungsleistung in den Serverschränken selbst sind unter anderem vertikal im Rack angebrachte Kühlspulen, die eine horizontale Luftzirkulation zur Frontseite eines jeden Servers ermöglichen. Die Ausfallsicherheit der Kühlelemente ergibt sich auch bei diesen Modellen wieder über Hotswapping-Fähigkeit und n+1-Redundanz. Um ein Höchstmaß an Sicherheit zu bieten, sollte auch die optionale Ausstattung der Systeme im Unternehmen mit Feuer- und Rauchmelder oder Gas-basierte Feuerlöschanlagen gegeben sein.

Komfortables Management

Unverzichtbarer Bestandteil integrierter Infrastrukturlösungen ist ein effizientes Management. Erst die durchgehende Monitorfähigkeit aller Komponenten liefert dabei die notwendige Grundlage für eine lückenlos überwachbare Versorgungskette von der Stromquelle bis hin zum Verbraucher. In der Regel erlaubt eine Server-basierte Managementeinheit den verwaltungsverantwortlichen Facility- und IT-Managern vor Ort oder remote via SNMP, Telnet, Web oder Modem den Zugriff auf ein Browser-basiertes GUI. Diese sollte möglichst intuitiv und übersichtlich gestaltet sein, um die Systemkomplexität zu reduzieren und das Gesamtsystem auf einen Blick erfassen zu können. Hilfreich für die Überprüfbarkeit des Gesamtsystems sind Berichte und Stromflussdiagramme. Alle ausfallrelevanten Daten und Informationen der angeschlossenen Komponenten und Umgebungsüberwachungseinheiten (EMUs) müssen in einer zentralen Managementeinheit zusammenfließen, um möglichen Fehlbedienungen vorzubeugen. Das Funktionsspektrum neuester Generationen von Managementeinheiten reicht dabei von der rechtzeitigen Identifikation von Systemschwachstellen über die Isolierung von Fehlerquellen bis hin zu einer detaillierten Beschreibung auftretender Probleme und der Empfehlung geeigneter Gegenmaßnahmen.

Ein weiterer Vorteil integrierter und monitorfähiger Systeme liegt in der verbesserten Administrierbarkeit. Besonders zeitsparend wirkt sich in diesem Zusammenhang aus, dass Konfigurationen und Firmware-Updates für mehrere Komponenten gleichzeitig durchgeführt werden können. Management-Lösungen mit besonders hoher Integrationsfähigkeit lassen sich zudem in bestehende IT- oder Facility-Management-Konsolen eingliedern. Das Senden von SNMP-Traps, also Ereignissen, an das jeweils verwendete Netzwerkmanagementsystem ermöglicht dabei die gemeinsame Verwaltung von Netzwerkinfrastruktur und APC-Komponenten über eine gemeinsame Schnittstelle.

Systematische Stromführung

Modulare und integrierte Infrastrukturlösungen wie das Infrastruxure-Modell von APC versprechen gegenüber konventionellen Lösungen einen bis zu 20 Prozent geringeren TCO-Wert und eine jeweils bis zu zehnmal höhere Ausfallsicherheit und Flexibilität. Modulare Baukastensysteme aus genau aufeinander abgestimmten, standardisierten und vorkonfigurierten Einzelkomponenten erlauben den schnellen Aufbau netzwerkkritischer, physikalischer Infrastrukturen für Datencenter jeder Größe.

Modernes Infrastrukturmanagement bedeutet heute weit mehr als bloße Qualitätssicherung und das Vorhalten von Energiereserven für den Notfall. Die aktuell auf dem Markt zu beobachtende Nachfrage gilt der systematischen Versorgung und Stromführung mit bestmöglichem Kosten-Nutzen-Verhältnis für jeden Anwendungsfall. Um das zu erreichen, müssen Sicherheitsüberlegungen die gesamte Infrastruktur berücksichtigen und gleichzeitig ökonomischen wie strategischen Aspekten genügen. Dr. Ulrich Wößner