Viele Unternehmen sind mittlerweile derart abhängig von der Informationstechnik, dass eine möglichst permanente Verfügbarkeit der eingesetzten Anwendungen und Daten unternehmenskritisch für sie ist. In diesen Fällen basiert die Hochverfügbarkeit auf der reibungslosen Abwicklung von IT-gestützten Geschäftsprozessen. Fallen sie aus, kann das fatale Folgen für das Unternehmen haben.
Bei unternehmenswichtigen IT-gestützten Geschäftsprozessen müssen die Anwendungen weiterlaufen
können, selbst wenn Fehler in einzelnen Komponenten auftreten, Wartungsaufgaben anliegen oder
Systemerweiterungen vorgenommen werden sollen. Dabei muss das Unternehmen jeweils definieren, wie
viel Ausfallzeit es bei den einzelnen Komponenten, Anwendungen oder Systemen tolerieren kann. Meist
erfolgt die Klassifizierung hochverfügbarer Systeme über eine Prozentangabe. So entspricht eine
Verfügbarkeit von 99,5 Prozent – dieser Wert wird von den meisten Standard-Clustern erreicht –
einer Ausfallzeit von rund 44 Stunden im Jahr; bei 99,9 Prozent Verfügbarkeit liegt dieser Wert bei
8,76 Stunden im Jahr, bei 99,99 Prozent Verfügbarkeit bei immerhin noch 52,6 Minuten/Jahr. Eine
Verfügbarkeit von 99,999 Prozent steht für eine rechnerische Ausfallzeit von nur noch rund fünf
Minuten pro Jahr.
Grundsätzlich lassen sich hochverfügbare IT-Lösungen hardwareseitig auf zwei Arten realisieren:
durch Clustering oder spezialisierte Systeme, die per se für eine hohe Ausfallsicherheit ausgelegt
sind.
Für ein Cluster schaltet der Administrator mehrere Rechner – meist kostengünstige Systeme wie
x86-Industriestandardserver – zu einem einheitlichen System zusammen. Doch Cluster ist nicht gleich
Cluster: High-Performance-Cluster verteilen umfangreiche Aufgaben auf mindestens zwei, aber meist
deutlich mehr Server (Knoten). High-Availability- oder Failover-Cluster sind dagegen primär für den
unterbrechungsfreien Betrieb konzipiert. Selbst kleinere Unternehmen setzen häufig auf
Failover-Cluster zur Verbesserung der Verfügbarkeit. Denn diese lassen sich auch mit nur zwei
Servern realisieren. Fällt der erste Knoten (Primärsystem) aus, übernimmt der zweite (Sekundär-
oder Backup-System) automatisch seine Aufgaben. Größere Failover-Cluster sind häufig auf mindestens
zwei Standorte verteilt, an denen wiederum jeweils mehrere Systeme gekoppelt sind.
Eine Alternative zum Cluster bilden spezialisierte, massiv-parallele Serverlösungen, die durch
redundante Hardwareauslegung und logische Abgleiche bei den Datenübertragungen ein sehr hohes
Verfügbarkeitsmaß von bis zu 99,99999 Prozent erzielen. Das entspricht rechnerisch einer
Ausfallzeit von drei Sekunden im Jahr. Dieser Lösungsweg bietet zudem den Vorteil, dass dabei eine
Konsolidierung der Hardwarelandschaft möglich ist. Die Verringerung der eingesetzten Komponenten
senkt zusätzlich die Zahl potenzieller Fehlerquellen und erleichtert die Administration.
Um eine hohe Verfügbarkeit zu erreichen, ist grundsätzlich eine besonders zuverlässige
Systemarchitektur notwendig – sowohl hardware- als auch softwareseitig. So sollte jeder
hochverfügbare Server über mindestens zwei einzelne Knoten (logische Prozessoren) verfügen, die
lose miteinander gekoppelt sind. Diese Prozessoren bestehen wiederum aus mindestens zwei physischen
Mikroprozessoren. Dabei verfügt jeder logische Prozessor über einen eigenen Speicher und seine
eigene Kopie des Betriebssystems. Eine redundante Netzwerkarchitektur verbindet die Prozessoren
miteinander. Die Mikroprozessoren eines logischen Prozessors synchronisieren sich zum Beispiel bei
I/O-Operationen. Ermittelt eine Vergleichslogik unterschiedliche Ergebnisse, so wird dieser
logische Prozessor abgeschaltet, und ein anderer übernimmt dessen Aufgabe. So versieht das System
zunächst alle Daten, die die Prozessoren mit der Peripherie austauschen, zusätzlich mit Prüfsummen,
bevor es sie überträgt. Weichen die Prüfsummen voneinander ab, lässt sich feststellen, ob während
der Übertragung ein Fehler aufgetreten ist. Die schadhafte Komponente kann dann abgeschaltet und
ausgetauscht werden. Gleichzeitig setzt eine Backup-Komponente die Arbeit fort.
Solche Hochverfügbarkeitssysteme sind häufig in der Produktionssteuerung, der Telekommunikation
oder bei Finanzdienstleistern im Einsatz. Gerade letztere müssen immer strengere gesetzliche
Auflagen erfüllen. So erfordert zum Beispiel Basel II die Reduzierung der betrieblichen Risiken.
Hier spielt die IT-Verfügbarkeit eine wichtige Rolle.
Nicht nur Hard- oder Softwarefehler können zum Stillstand eines IT-Systems führen. Auch
Systemmodifikationen und -erweiterungen oder Wartungsaufgaben wie das Einspielen von Updates sind
zu berücksichtigen, wenn eine höchstmögliche Verfügbarkeit sichergestellt werden soll.
Hochverfügbarkeit bedeutet auch, dass sich ein laufendes System im Betrieb erweitern und warten
lässt, ohne dass es abgeschaltet werden muss.
Deshalb darf der IT-Leiter bei der ausfallsicheren Auslegung der IT nicht allein die Server
betrachten, sondern auch die Netzwerkumgebung und insbesondere die Speichersysteme – im Regelfall
auf NAS- oder SAN-Basis. Eine besondere Rolle spielt hierbei die möglichst automatisierte
Lastverteilung, wenn Server und Komponenten vorübergehend nicht einsatzfähig sind. Dabei sorgt die
Automatisierung für eine konsistente, wiederholbare und fehlerfreie Ausführung der relevanten
Prozesse, senkt das Risiko von Bedienfehlern und steigert die Servicequalität.
Generell sollte ein Unternehmen bei hochverfügbaren Systemen Hot-swap-fähige Bauteile einsetzen,
die einen Austausch im laufenden Betrieb erlauben. Bei Systemerweiterungen ist es in diesem
Zusammenhang sinnvoll, auf standardkonforme Komponenten zurückzugreifen, um das Zusammenspiel von
Hardwaregruppen auch unterschiedlicher Hersteller bestmöglich sicherzustellen.
Ein Stichwort, das im Zusammenhang mit der Hochverfügbarkeit nicht fehlen darf, ist die
Virtualisierung – also die logische Zusammenfassung von Ressourcen verschiedener Server, die von
den physikalischen Gegebenheiten weitgehend unabhängig, je nach Bedarf zur Verfügung gestellt
werden. Ihr kommt eine gewichtige Rolle zu, wenn planmäßige oder außerplanmäßige Ausfälle von
Teilsystemen auftreten. Denn durch die Virtualisierung lassen sich fehlerhafte Systemkomponenten
relativ einfach auskoppeln, wobei das Virtualisierungssystem automatisch alternative IT-Ressourcen
bedarfsgerecht zuordnet, um den Systembetrieb aufrechtzuerhalten.
Zu einer ausfallsicheren Gestaltung der Unternehmens-IT gehört auch das Identifizieren und
Vermeiden von Ausfallursachen. So gilt die Überhitzung als eine der häufigsten Ausfallursachen für
IT-Systeme. Deshalb sollte die IT-Abteilung insbesondere bei Hochverfügbarkeitslösungen auf eine
adäquat ausgelegte Klimatisierung und Kühlung achten, verbunden mit einer entsprechenden
Absicherung der Kühllösung gegen Ausfall. Doch dies mit vertretbarem Aufwand zu gewährleisten, wird
zusehends komplizierter. Denn immer kompaktere Systeme und die daraus resultierende hohe
Systemdichte in den Serverschränken schaffen so genannte Hotspots oder Hitzenester und fordern von
vielen Klimaanlagen Höchstarbeit.
Darüber hinaus sollte es das Ziel sein, nicht nur die notwendige Kühlung zu gewährleisten,
sondern auch dafür Sorge zu tragen, dass Einzelkomponenten weniger Strom verbrauchen und in der
Folge weniger Abwärme produzieren. Daher kommen bei Clustern immer häufiger die energiesparenden
Blade-Server zum Einsatz. Sie arbeiten mit einem zentralen und redundant ausgelegten
Stromversorgungs- und Kühlungskonzept. Eine weitere Option für einen energetisch effizienteren
Betrieb sind wassergekühlte Systeme, die eine bis zu dreifach höhere Kühlkapazität haben als
herkömmliche Klimalösungen für Serverschränke.
Hochverfügbare IT-Lösungen verleihen Unternehmen dort Sicherheit, wo geschäftskritische
Informationen digital gespeichert sind und durchgehend verfügbar sein müssen. Dank ausgereifter und
zuverlässiger Technologien ist die Erhöhung der Verfügbarkeit meist keine primär technische
Herausforderung, sondern eine Frage des bereitstehenden Investitionsbudgets und einer pragmatischen
Einschätzung , welche Investitionen welchen Nutzen bringen. Wichtigster Aspekt im Rahmen einer
Hochverfügbarkeitsstrategie ist eine übergreifende Sichtweise, denn jede Lösung ist nur so stark
wie ihr schwächstes Glied. Entsprechend sind für eine hochverfügbare IT nicht nur die Server,
sondern auch Speicher- und Netzwerkkomponenten relevant. Erst im Zusammenspiel mit redundanten
Netzwerkverbindungen und Speichersystemen sind Failover-Cluster oder ausfallsichere Server auch
tatsächlich hochverfügbar.