Hochverfügbarkeit wird erschwinglich Für mittelständische Unternehmen waren hochverfügbare Computersysteme bisher kein Thema. Natürlich waren Abstürze, Ausfälle und ungeplante Stillstandszeiten immer ein Ärgernis.
Mitunter erforderte es erheblichen Aufwand, bis alle Systeme wieder planmäßig liefen. Aber solche Störungen ließen sich letzten Endes irgendwie verschmerzen. Zudem hatten die Unternehmen ohnehin keine Alternative, denn hochverfügbare Systeme, also Server, die so gut wie nie ausfallen, hätte sich ein Mittelständler gar nicht leisten können – die Preise solcher Speziallösungen bewegten sich im sechs- bis siebenstelligen Bereich. Also musste man sich mit den anscheinend unvermeidlichen Ausfällen arrangieren. Heute hat sich das geändert: IT-Systeme sind öfter als früher unentbehrlich. Rechnungen und Lieferscheine lassen sich vielleicht zwei Stunden später drucken, aber den Zugriff auf ein elektronisch gesteuertes Lager kann man weder verschieben noch ersetzen. Sonst sind angeforderte Teile nicht verfügbar, eine Logistik-Kette gerät ins Stocken oder ein Produktionsvorgang muss unterbrochen werden. Funktioniert eine E-Commerce-Seite nicht, kauft der potenzielle Kunde woanders. Liefert der Zulieferer nicht just in time, weil ihn elektronische Bestellungen nicht erreichen, kann er seinen Vertrag mit dem Automobilhersteller verlieren. Deshalb ist Hochverfügbarkeit heute auch ein Thema für Mittelständler. Allerdings begegnen viele Unternehmen dieser Herausforderung mit inadäquaten Mitteln. Sie nutzen Verfügbarkeitsstrategien, die sich für unternehmenskritische Systeme wenig bis gar nicht eigenen (siehe Kasten folgende Seite).
Hochverfügbarkeit bedeutet je nach Anforderungen Unterschiedliches Was der einzelne Anwender als Hochverfügbarkeit definiert, hängt komplett von seinen Anwendungen ab. Letztlich geht es um die Frage, wie viel Ausfallzeit der IT ein Betrieb verkraften kann, ohne dass das Geschäft leidet. Je nachdem reichen vielleicht auch schon 99,5 Prozent aus, während jemand anders auf »fünf Neunen« beharren muss. Für Klientel, die keine fünf Neunen braucht, hat Fujitsu-Siemens nun das von Storage-Systemen bekannte n+1-Prinzip auf Server übertragen und macht damit abgespeckte Datenzentrums-Technologie seines ASCC-Produkts (Adaptive Server Control Center) für Mittelständler verfügbar. Technisch ist die Lösung erheblich schneller und zuverlässiger als einfache Standby-Technologie und wesentlich einfacher als Clusterlösungen. Bei x10sure überwacht ein Kontrollserver mehrere Arbeits-Blade-Server und einen Ersatzserver im selben Rack. Die Daten und Boot-Images aller Server liegen zentralisiert auf einem per SAN-Switch angebundenen Festplattensystem, weshalb Datenverluste wie bei normalen Standby-Lösungen nicht vorkommen. In Zukunft soll als Verbindungsoption auch das iSCSI-Protokoll unterstützt werden. Weiter gehört zu einer typischen Konfiguration eine kleine, vollautomatische Tape-Library nebst Backup-Software. Registriert der Controller einen Serverausfall, schaltet der den betreffenden Server ab, den Ersatzserver an und lädt das dazu gehörige Image aus dem Speichersystem – schon ist der Ausfall kompensiert. Der Preis: Ein Paket mit Lizenzen für insgesamt sechs Server (vier Arbeitsserver, ein Control-Server, ein Ersatzserver) kostet 9250 Euro. Vorläufig funktioniert das Ganze nur mit Fujitsu-Siemens-Hardware, doch es wird daran gedacht, später auch für andere Hardware Zertifizierungen zu erteilen.
Fehlertolerante Server schaffen fünf Neunen Freilich reicht das nicht immer. Wer mehr will, muss andere Angebote in Betracht ziehen, zum Beispiel fehlertolerante Server, die mit Standard-Hardware und -Betriebssystemen arbeiten. Die Geräte erreichen ihre Zuverlässigkeit nicht durch spezielle Bauteile, auch die Hardware basiert ganz auf Standard-Komponenten, wobei aber alle betriebswichtigen Teile redundant sind. Es sind also Prozessoren, Speicher-Chips und I/O-Einheiten doppelt vorhanden und nicht nur die Netzteile oder die Festplatten. Wenn eine Komponente ausfällt, übernimmt die jeweilige Partner-Komponente sofort und voll automatisch den Betrieb. Der Benutzer merkt diesen Übergang nicht, er kann seine Anwendung somit ohne Datenverlust kontinuierlich weiterverwenden. Standardbasierte fehlertolerante Systeme, wie sie beispielsweise von Stratus angeboten werden, erreichen eine Verfügbarkeit von über 99,999 Prozent. Das entspricht einer mittleren Ausfallzeit von maximal fünf Minuten pro Jahr und damit sogar der Verfügbarkeit klassischer Großrechner. Die Zeit der sechsstelligen Preise ist bei derartigen Systemen ebenfalls längst vorbei, und damit wird die Gerätekategorie auch für den Mittelstand interessant. Ulrich Lenz ist Senior Consultant bei Stratus Technologies in Schwalbach/Taunus.