Wege zum flexiblen Infrastrukturmanagement

Virtualisierung für Rechenzentren

29. Mai 2006, 23:35 Uhr | Hendrik Leitner/jos Hendrik Leitner ist Senior Manager Marketing/Business Development Solution und Service Deutschland bei Fujitsu Siemens Computers.

Die Verwaltung moderner IT-Infrastrukturen stellt aufgrund der wachsenden Komplexität dieser Umgebungen eine große und ständig zunehmende Herausforderung dar. So verlangen beispielsweise Spin-offs und Outsourcing-Maßnahmen von den Verantwortlichen im Unternehmen flexiblere und dynamischere Ansätze als jemals zuvor. Dazu kommen neue gesetzliche Verpflichtungen zur Datenhaltung. IT-Abteilungen sind aufgrund dieser Entwicklungen gezwungen, die Effizienz im Rechenzentrum zu steigern, Prozesse zu optimieren und Kosten zu senken sowie ihre Archivierungsmöglichkeiten auszubauen. Dabei können Virtualisierungstechniken eine große Hilfe sein.

Klassische Rechenzentrumsarchitekturen reichen nicht aus, um die Anforderungen zu erfüllen, die
der moderne Arbeitsalltag stellt. Deswegen denken viele Administratoren verstärkt über so genannte
dynamische Rechenzentren und Virtualisierungsansätze nach – ein guter Grund, um zu diskutieren,
welche Vorteile virtualisierte Umgebungen mit sich bringen und mit welchen Mitteln sich die
statischen IT-Umgebungen von heute in dynamische Infrastrukturen umwandeln lassen.

Klassische Rechenzentren

Heute herrschen in den Rechenzentren so genannte Silo-Architekturen vor. Das heißt, jeder
Applikation sind ein eigener Server, eine eigene Datenbank und eigene Speichersysteme zugewiesen.
Dies führt im Durchschnitt zu einer geringen Auslastung der Hardwarekomponenten – denn jedes Silo
hat ein Maximum an Ressourcen zur Verfügung, um auftretende Spitzenbelastungen abzufangen und die
Ausfallsicherheit der einzelnen Silos zu gewährleisten. Ein weiteres Manko dieser Architektur
stellen redundante Komponenten dar, die zur Erfüllung von Service Level Agreements (SLAs) benötigt
werden. Diese sind speziell auf die einzelnen Silos zugeschnitten und meist nicht für anderweitige
Aufgaben nutzbar. Der Silo-Ansatz verschwendet also Geld, da er Investitionen in Rechnersysteme
verlangt, die sich an anderer Stelle besser nutzen ließen. Außerdem sorgen die vielen von einander
getrennten Systeme für einen großen Administrationsaufwand und erhöhen die Kosten auf diese Weise
zusätzlich.

Dynamische Rechenzentren

Dynamische Rechenzentren schaffen hier Abhilfe, da sie die festen Silo-Architekturen durch
modulare Bausteine ersetzen. Das Schlagwort lautet Virtualisierung, ein entscheidender Faktor in
einer IT-Strategie, die sich dem Ziel verschreibt, die Komplexität der Infrastrukturen zu
verringern und das Rechenzentrum schnell an neue Anforderungen anzupassen. Bei der Virtualisierung
sind die Applikationen und ihre Daten von den fest zugeordneten Hardwareressourcen entkoppelt, in
Pools gebündelt und den Applikationen nach Bedarf flexibel zugewiesen. Dabei lassen sich diese
Ressourcen von mehreren Anwendungen gemeinsam nutzen. Das Ergebnis ist eine verbesserte Leistung,
höhere Flexibilität sowie ein besserer Auslastungsgrad der Infrastruktur. Im Vordergrund stehen
dabei die Services, die dem Anwender zur Verfügung stehen, sowie SLAs, die das Qualitätsniveau der
bereitgestellten Services definieren. Ergänzt wird die neue Hardware- und Softwarearchitektur durch
Konzepte zur Integration in den bestehenden Betrieb.

Dynamische Rechenzentren bringen allein aufgrund ihrer modularen Architektur eine ganze Reihe
von Vorteilen mit sich. Sie können den Administrationsaufwand senken, die Einhaltung der eben
genannten SLAs erleichtern, eine schnellere Fehlerbehebung ermöglichen und durch eine
Virtualisierung von Server-, Speicher- und Backup-Systemen für eine bessere Nutzung der
Systemressourcen sorgen. Die Virtualisierung der Serversysteme lässt sich in diesem Zusammenhang
beispielsweise über Lösungen wie den "Vmware-ESX"-Server realisieren, zum Virtualisieren von
Storage-Komponenten eignen sich diverse SAN-Produkte, und die Virtualisierung der Backup-Lösungen
kann beispielsweise über Virtual Tape Libraries ablaufen.

Auf diese Weise sind Unternehmen nicht nur in der Lage, ihre Hardwareressourcen bestmöglich zu
nutzen, sondern sie können auch ein effizientes Information Lifecycle Management (ILM)
implementieren. Dieses berücksichtigt, dass Daten ihren Geschäftswert im Lauf der Zeit verändern
und hilft den Verantwortlichen so beim weiteren Einsparen von Investitionen. Dazu verschiebt das
ILM-System die Daten immer auf ein Speichermedium, das ihrem Wert angemessen ist. So wandern sie
zum Beispiel automatisch nach und nach von einem teuren, hochverfügbaren SCSI-Disk-Array über
billigere SATA-Speicherplatten bis hin zu Tape-Medien.

Praktische Umsetzung

Bereits heute existieren viele Anwendungen, die auf einem flexiblen Grundkonzept aufbauen und
somit dynamisch mit den zugrunde liegenden Server- und Speicherkapazitäten zusammenarbeiten können.
Dazu gehören beispielsweise Web-, Terminal-, Print- und Fileservices, da diese in der Lage sind,
auf mehreren Systemen parallel zu laufen. Dieser Trend wird sich in Zukunft noch verstärken, da
komplexe Applikationen wie Geschäftsanwendungen immer mehr durch schlanke Funktionsblöcke ersetzt
werden, die dynamisch kombinierbar sind. Dieser Trend spiegelt sich aktuell durch Themen rund um
das Konzept der Service Oriented Architecture (SOA) wider.

Der Migrationsprozess

Hersteller wie beispielsweise Fujitsu Siemens Computers (FSC) bieten ihren Geschäftskunden die
Möglichkeit, IT-Umgebungen schrittweise in Richtung dynamischer Rechenzentren zu optimieren und so
die oben angesprochenen Anforderungen zu erfüllen. FSC setzt dabei auf die so genannte
Triole-Strategie zur Implementierung eines dynamischen Rechenzentrums. Sie basiert auf den
Kerntechniken Virtualisierung, Automatisierung und Integration. Die Virtualisierung sorgt in diesem
Zusammenhang für die Trennung der Anwendungen und Daten von dedizierten Systemen. Die
Automatisierung übernimmt die Anpassung der IT-Infrastruktur an die sich verändernden
Geschäftsprozesse, und die Integration stellt die schnelle und unproblematische Implementierung
sämtlicher Techniken über das gesamte Spektrum der IT-Infrastrukturkomponenten hinweg sicher.

Im Rahmen dieser Strategie sind bereits mehrere Produkte und Lösungen verfügbar. Dazu gehört
beispielsweise das Adaptive Service Control Center (ASCC), das die zentrale Steuerungsinstanz zum
Aufbau und Betrieb automatisierter IT-Infrastrukturen in Rechenzentren darstellt. Das ASCC
überwacht und steuert die Verfügbarkeit und Auslastung der vorhandenen Serverlandschaften. Dadurch
lässt sich der Wartungsaufwand erheblich reduzieren und eine definierte adaptierbare Quality of
Service (QoS) sicherstellen. Die Lösung übernimmt beispielsweise bei Verletzungen von QoS-Kriterien
sofort die automatische Verteilung von Betriebssystemen und Anwendungen innerhalb des Server-Pools
(installiert also bei Bedarf auch neue virtuelle Serversysteme).

Dies soll die Lasten effektiv steuern, und die Verfügbarkeit innerhalb des Rechenzentrums bleibt
stets gewährleistet. Die ASCC-Software läuft auf zwei "Primergy"-Rechnern (Kontrollknoten), die im
Cluster arbeiten, und überwacht fortlaufend mittels Agenten und standardisierten SNMP-Traps alle
Server des Pools. Das System unterstützt Linux-, Solaris- und Windows-Umgebungen.

Weitere wichtige Bausteine sind die "Flex-Frame"-Komponenten. Sie ersetzen die
Silo-Architekturen für klassische Geschäftsanwendungen wie SAP oder Oracle. Dabei befindet sich die
jeweilige Software gemeinsam mit dem Betriebssystem (Linux oder Solaris) auf einem zentralen
Speichersystem und lässt sich von dort aus auf jedem Server innerhalb des Server-Pools starten.
Jeder Dienst läuft also auf jedem Rechner und lässt sich innerhalb weniger Minuten von einem Server
auf einen anderen verschieben. Die Lösung flexibilisiert und dynamisiert folglich die Anwendungen.
Damit erfüllt sie alle Bedingungen, um klassische Geschäftsapplikationen ohne Änderungen in
dynamischen Rechenzentren zu betreiben und dabei alle Vorteile der neuen Architekturen vollständig
nutzen zu können.

Da Anwendungen wie SAP und Oracle völlig unterschiedliche Architekturen und Funktionsweisen
haben, sind auch die entsprechenden Lösungen spezifisch an das jeweilige Einsatzszenario angepasst.
Die "Flex Frame for mySAP Business Suite" setzt auf eine spezielle Managementsoftware – so genannte
Autonomieagenten – auf. Diese gewährleisten die Hochverfügbarkeit der geschäftskritischen
Anwendungen: Sie überwachen alle Vorgänge, starten fehlerhafte SAP-Instanzen neu oder verschieben
Dienste im Fehlerfall. Auf diese Weise federt das Produkt Lastspitzen durch das Hinzuschalten
weiterer Systeme ab und stellt frei gewordene Ressourcen flexibel anderen SAP-Services zur
Verfügung.

Diese Maßnahmen reduzieren die Zahl der manuellen Eingriffe durch die Administratoren erheblich.
Der Grad der Autonomie lässt sich jeweils über Parameter an die Anforderungen des Unternehmens
anpassen. Auf Hardwareseite setzt sich die dafür benötigte Infrastruktur aus Kontrollknoten,
Anwendungs- und Datenbankservern sowie NAS-Speichern zusammen. Als Kontrollknoten verwendet der
Hersteller jeweils zwei Primergy-Rack-Server im Cluster, die die Verfügbarkeit aller erforderlichen
Dienste sicherstellen. Sie steuern die Agenten, die Datensicherung sowie die Verteilung der
Betriebssysteme und Anwendungen. Auf den Anwendungs- und Datenbankservern laufen im Gegensatz dazu
die einzelnen Komponenten der Applikation. Dazu kommen in der Regel zertifizierte Systeme der
Primergy- und Primepower-Familien zum Einsatz. Die Speichersysteme arbeiten meist mit Filern von
Network Appliance.

"Flex Frame for Oracle" nutzt die Grid-Computing-Fähigkeit von "Oracle 10g" aus. Mit dieser
Lösung lässt sich die Oracle Middleware zusammen mit geschäftskritischen Anwendungen und den
entsprechenden Datenbanken auf jedem Server innerhalb eines Server-Pools betreiben. Auch dabei
arbeiten die Kontrollknoten wieder auf zwei Intel-basierten Serversystemen im Cluster, anstelle der
Agenten kommt dort jedoch das Automatisierungs-Tool ASCC zum Einsatz. Fällt beispielsweise ein
Server aus, so bemerkt das ASCC dies und führt automatisch Adaptionsmaßnahmen nach vordefinierten
Regeln durch, um den definierten Service-Level einzuhalten. Dies kann zum Beispiel der automatische
Neustart eines Dienstes auf einem anderen Server oder das Hinzuschalten weiterer Dienste auf neuen
Servern für eine dynamische Lastverteilung sein.

Eine hohe Flexibilität in puncto Ressourcenmanagement allein reicht jedoch nicht aus, um die
Systeme auf neue Geschäftsanforderungen abzustimmen. Eine optimierte IT-Infrastruktur zeichnet sich
auch dadurch aus, dass sich bestehende und neue Anwendungen einfach integrieren lassen.
Legacy-Komponenten müssen in Webapplikationen und Portale eingebunden werden. Dabei ist wesentlich,
ob dazu die Altsysteme zu modifizieren sind oder nicht. Host-Anwendungen, die früher nur über
Terminals bedienbar waren, benötigen heute zudem moderne und ergonomische Weboberflächen.

Um mobile Einsatzszenarien verwirklichen zu können, müssen sich die Benutzeroberflächen darüber
hinaus an das Display mobiler Geräte wie Handhelds, Notebooks oder Tablet PCs adaptieren lassen.
Mit OpenSEAS und dem Oracle Application Server 10g bietet Fujitsu Siemens Computers für diese
Szenarien eine Produktsuite, die von der Konsolidierung über die Integration von Legacy-Anwendungen
bis hin zur Entwicklung von Webservices und der Implementierung von Portalen reicht. Eingriffe in
die bestehenden Applikationen sind nicht erforderlich, und die Konsistenz von Informationen ist
garantiert.

Mainframes

Ein weiterer wichtiger Baustein dynamischer Rechenzentren soll an dieser Stelle nicht
ausgeklammert sein: die Mainframes. Diese Systeme spielen in Rechenzentren nach wie vor eine große
Rolle. Sie gelten schon seit langer Zeit als Ideengeber für andere Rechnerarchitekturen. So wurden
wichtige Konzepte etwa bei der Ressourcenverwaltung, bei der Administration und bei der
Virtualisierung zunächst in Mainframe-Umgebungen entwickelt und anschließend nach und nach auf
andere Systeme übertragen. Und auch in der Zukunft spielen sie eine wichtige Rolle – beispielsweise
bei der Bereitstellung von Systemressourcen für den dynamischen Pool.

Zusammenfassung und Ausblick

Dynamische Rechenzentren bauen auf innovative Technik auf. Um die damit verbundenen Vorteile in
vollem Umfang nutzen zu können, sind die Unternehmen allerdings nicht nur auf neue Produkte und
Lösungen, sondern auch auf umfangreiche Dienstleistungen angewiesen, da sie nur mit deren Hilfe in
die Lage versetzt werden, die Virtualisierung, Automatisierung und Integration als Eckpfeiler der
effektiveren IT-Nutzung und Kostenreduzierung optimal zu implementieren. Mit dieser "Strategie der
kleinen Schritte" lässt sich bereits heute ein realistischer Weg weg vom wartungsintensiven
Rechenzentrum hin zu serviceorientierten und kostensenkenden IT-Infrastrukturen aufzeigen.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+