Ausfallsicherheit im Rechenzentrum

Mainframe als Vorbild

12. Februar 2007, 23:00 Uhr | Achim Dewor/dp Der Autor ist Marketing-Direktor für das Produktmarketing von Enterprise Products BS2000/OSD bei Fujitsu Siemens Computers.

Vielen Unternehmen ist das Rechenzentrum mittlerweile so wichtig, dass eine Ausfallsicherheit bis hin zur 99,999prozentigen Verfügbarkeit verlangt wird; das entspricht einer Ausfallzeit von fünf Minuten pro Jahr. Solche Rechenzentren müssen Ressourcen flexibel und automatisiert zuteilen können und Organisationsarbeiten ohne Störung des Betriebs durchführen. Der Artikel zeigt, dass mithilfe von Mainframes, ausgefeilten Systemstrategien und Automatisierungs-Tools solche Hochverfügbarkeitsanforderungen erfüllbar sind.

Das Rechenzentrum ist das Herz eines jeden größeren Unternehmens. Hier stehen die Rechner, die
für die interne und externe Kommunikation unentbehrlich sind. Und es werden immer mehr: Während vor
zehn Jahren ein Unternehmen einen Webserver hatte, sind es heute oft viele Tausend. Die Anzahl der
zu betreuenden Maschinen erhöht sich stetig. Firmen wachsen oder kaufen andere Firmen hinzu, und
Sicherheitsüberlegungen erfordern die Duplikation von Daten und Anwendungen – damit kommen manchmal
komplette Rechenzentren dazu. Zudem müssen die Datenbestände der einzelnen Server abgeglichen und
gesichert sowie die Infrastruktur mit Hubs, Switches und Router kontinuierlich auf dem Stand
gehalten werden. Hinzu kommen Speicherarchitekturen in Form von NAS (Network Attached Storage) oder
SANs (Storage Area Networks) sowie computergesteuerte Bandroboter für die Archivierung, außerdem
Printserver, die den Output an eine Unzahl von Druckern innerhalb des Unternehmens verteilen. Das
ist nur eine kurze Zusammenfassung der komplexen Zusammenhänge in einem Rechenzentrum. Dabei war
noch nicht die Rede davon, dass diese Umgebung aus den Produkten unterschiedlicher Hersteller
besteht oder dass darin neue und alte Geräte und Anwendungen gleichermaßen existieren.

Um solche Umgebungen zu verwalten, bieten sich Framework-Lösungen an wie Tivoli, CA Unicenter
oder HP Openview. Sie dienen als Integrationsschicht für eine Vielzahl an spezifischen
Managementtools. Dazu zählen zum Beispiel Veritas? Storage Foundation für den Bereich der
Datenspeicher oder das Network Automation Center von Opsware für die Netzwerkverwaltung. Doch oft
sind solche Managementarchitekturen nicht umfassend und flexibel genug, um ein Rechenzentrum
wirklich dynamisch an neue Anforderungen anpassen zu können.

Ein dynamisches Rechenzentrum könnte folgendermaßen aussehen: Es gibt statt der heute üblichen
Racks voller Server und Disks im Idealfall nur noch drei verschiedene Schranktypen: Auf dem ersten
steht "Rechner", auf dem zweiten "Speicher" und auf dem dritten "Netzwerk". Ein großer Bildschirm
zeigt in einer Grafik alle laufenden Anwendungen mit ihren aktuellen Systemanforderungen:
Materialwirtschaft, Lohn und Gehalt, Einkauf, Rechnungswesen, der virtuelle Marktplatz,
Netzwerktelefonie, Videoservices und so weiter. Wenn ein Anwendungsbereich mehr oder weniger
Rechnerkapazität, Speicherplatz oder Netzwerkbandbreite benötigt, werden diese Kapazitäten
automatisch neu verteilt – auch wenn eine Komponente ausfällt. Reserven wie weitere CPUs oder neue
Plattenspeicher stellt das System auf Abruf bereit.

Die Anpassungsfähigkeit an wechselnde Lasten, ihre Reaktionsfähigkeit auf Fehler oder Ausfall
erhalten die Systeme im Wesentlichen durch die Virtualisierung der Ressourcen – eine Technologie,
die sich bei den Mainframes bewährt hat. So eignet sich als Basis für ein dynamisches Rechenzentrum
auch eine Mainframe-Virtualisierungssoftware wie beispielsweise VM2000, die für die BS2000- und
OSD-Mainframes von Fujitsu Siemens Computers konzipiert ist. Sie ist auf der einen Seite optimal
auf die Systemhardware abgestimmt, auf der anderen Seite aber offen zum Beispiel für Linux. So ist
es damit möglich, die Betriebsmittel eines realen Servers auf bis zu 99 virtuelle Gastsysteme ("
Virtuelle Maschinen") aufzuteilen, wobei diese unter BS2000/OSD laufen können und/oder unter Linux.
Für den Anwender besitzen diese Gastsysteme den gleichen Befehlsumfang, die gleiche Netzfähigkeit
sowie Test- und Dialoghilfen wie eine eigenständige Hardware. Dabei ist mindestens ein Gastsystem –
das Monitorsystem – immer vom Typ BS2000/OSD. Damit ein fehlerhaftes Verhalten in einem Gastsystem
keine Auswirkungen auf die restlichen Systeme hat, sind die Gastsysteme untereinander komplett
abgeschottet. Die Aufteilung und Zuordnung der Peripherie kann online verändert, die
Peripheriekonfiguration mit ihren Verbindungen (Kanäle) und Geräten auch im laufenden Betrieb
variiert und erweitert werden.

VM2000 führt automatisch ein dynamisches CPU-Scheduling über alle Gastsysteme hinweg durch und
erhöht so die CPU-Auslastung der Gesamtanlage erheblich. Vorteil ist, dass sich die
CPU-Scheduling-Strategie in Abhängigkeit von der gemessenen Last und definierbaren Regeln im
laufenden Betrieb ändern lässt, sodass ein effizientes Service Level Management (SLM) möglich
ist.

Im Vergleich zu einer Summe von Einzelsystemen hat die virtualisierte Mainframeplattform nicht
nur den Vorteil einer besseren Ausnutzung der Ressourcen, da freie Kapazitäten zwischen einer
Vielzahl von laufenden Anwendungen dynamisch umgeordnet werden können. Die strikte Trennung
zwischen den virtuellen Maschinen macht auch die Bereitstellung separater Entwicklungs- und
Testsysteme überflüssig. Ebenso können Anwendungen, die auf spezielle Betriebssystemversionen
angewiesen sind, in einer eigenen virtuellen Maschine auch dann noch betrieben werden, wenn das
Betriebssystem in seiner neuen Version diese Eigenschaften nicht mehr unterstützen sollte.

Damit alle Komponenten im Rechenzentrum mit minimaler Betreuungsmannschaft rund um die Uhr
laufen, müssen die Prozesse weit gehend automatisiert ablaufen. Dafür ist ein klares Regelwerk
notwendig mit Policies, die festlegen, was beim Eintritt welcher Ereignisse zu geschehen hat. Der
Aufwand für die Erstellung solcher Policies hängt im Wesentlichen davon ab, wie einfach sich der
Gesamtprozess in Teilprozesse untergliedern lässt und dass diese richtig miteinander verknüpft
werden. Der Pflegeaufwand dagegen hängt davon ab, wie robust und stabil diese Policies formuliert
sind.

In vielen Fällen geschieht die Verknüpfung der Teilprozesse mithilfe von Job-Control-Sprachen.
Die BS2000/OSD-Mainframes arbeiten beispielsweise mit SDF-P. Diese Sprachen ermöglichen eine über
Syntax gesteuerte Datenübergabe zwischen den Teilprozessen. Dabei ist es ohne Belang, ob die
Teilfunktionen Systemdienste oder Anwendungen darstellen, ob diese Prozesse lokal oder remote
laufen oder ob es sich um Programme oder Geräte handelt.

Der hohe Virtualisierungsgrad der Mainframe-Systeme beim Zugriff auf alle Ressourcen garantiert
die Robustheit der Policies. So ergeben beispielsweise Sicherungsprozeduren wenig Sinn, wenn die
Erweiterung eines Dateisystems um zusätzliche Platten oder seine Verlagerung auf Plattensysteme
eines anderen Typs oder eines anderen Herstellers jedes Mal eine Korrektur der Policy-Skripts
erfordert. Noch gravierender würde sich mangelnde Ressourcenvirtualisierung bei Skripts auswirken,
die bei Ausfallbehandlung oder Failover ablaufen.

Für die Automatisierung des Ressourcenmanagement ist die Bereitstellung aktueller
Performance-Daten aus allen Systemen Voraussetzung. Hierfür sind zahlreiche Tools im Handel. Auch
hier gibt es Lösungen, die ursprünglich für Mainframe-Systeme konzipiert sind und mittlerweile auch
in Unix-, Linux- und Windows-Umgebungen arbeiten. Bei diesen Tools sammeln meist Agenten auf den
verteilten Systemen die notwendigen Parameter und liefern sie an eine Managementinstanz weiter, die
die gewünschte Aktion in Form eines Scripts automatisch anstößt.

Mainframes bieten generell zahlreiche Möglichkeiten, um Vorgänge zu automatisieren. Wesentliches
Element ist ein Jobsteuersystem, mit dem die Abwicklung und Überwachung der Batch-Produktion in
einem Rechenzentrum automatisiert werden kann. In der Praxis sind täglich eine Vielzahl von
Batch-Aufgaben abzuwickeln, die untereinander in der Regel ein komplexes Abhängigkeitsgefüge
aufweisen. Wenn die Einzelschritte der Batch-Produktion, die Jobs, manuell abgewickelt werden, sind
Jobabbrüche aufgrund von Fehlbedienungen nicht auszuschließen. Deshalb kommen heute
Job-Scheduling-Produkte zum Einsatz, die eine effiziente, systemgestützte Jobabwicklung
ermöglichen. Wichtiges Grundprinzip einer solchen Lösung ist, dass die Vorgaben für den Ablauf der
Batch-Produktion nicht in den Jobs, sondern in der darüber liegenden Ebene beschrieben werden.
Damit erfolgt eine logische Trennung von Jobs und Prozeduren, wie es für einen langfristig stabilen
Betrieb notwendig ist. Auch hier gibt es Lösungen für Mainframes in heterogenen Umgebungen. Bei
AVAS für BS2000/OSD beispielsweise versorgt das Auftragsverwaltungs- und -abwicklungssystem die
Jobs automatisch und damit fehlerfrei mit aktuellen Daten. Die Jobnetze, in denen alle Vorgaben für
den Ablauf der Batch-Produktion beschrieben sind, starten automatisch zu vorgegebenen Terminen. Bei
unvorhergesehenen Abbrüchen leitet das Tool selbsttätig Wiederanläufe ein. Manuelle Tätigkeiten
lassen sich dadurch weit gehend eliminieren.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+