Konsolidierung und Virtualisierung von Ressourcen

Neue Dynamik im RZ

17. Juni 2008, 22:00 Uhr | Ralf Eberhardt, Alice Eschrich, Mika Kotro

Das Markttempo vieler Branchen verlangt heute, dass Rechenzentren modifizierte oder neu gestaltete Geschäftsprozesse flexibel unterstützen. Anwendungen sind permanenten Änderungen unterworfen, aber auch die IT-Infrastruktur erlebt einen tiefgreifenden Wandel. Vor allem die standortübergreifende Konsolidierung verteilter Applikations- und Fileserver sowie die Virtualisierung zentralisierter Ressourcen haben im RZ einen Transformationsprozess ausgelöst.

Gängige IT- und Netzwerkmanagement-Tools können in einem derart dynamischen Umfeld weder die
Verfügbarkeit geschäftskritischer Anwendungen sicherstellen noch Konformität (Compliance) mit
rechtlichen Anforderungen garantieren. Denn meist sind diese Werkzeuge speziell zur Steuerung und
Überwachung einzelner Komponenten oder Teilsysteme konzipiert. Die Logik der Geschäftsanwendungen
und ihrer wechselseitigen Beziehungen verstehen sie nicht. Gefragt sind folglich ganzheitliche
Optimierungslösungen, die Einzelkomponenten innerhalb eines übergeordneten Anwendungskontexts
automatisch erkennen und mehr Transparenz in die Gesamtkonfiguration der Anwendungsinfrastruktur
bringen. Basis dafür sind virtualisierte Ressourcenpools im Rechenzentrum und zuverlässige
Performance für den Anwendungszugriff im WAN.

Der gegenwärtige Transformationsprozess im Rechenzentrum lässt sich in drei aufeinander bezogene
Haupttendenzen unterteilen: Konsolidierung, Virtualisierung und Automatisierung. Konsolidierung
führt zum Beispiel Server- und Storage-Ressourcen aus Außenstellen in einem gemeinsamen RZ
zusammen. Virtualisierung vereint die zentralisierten Ressourcen zu applikationsunabhängigen Pools,
was zu einer Entflechtung der Anwendungsebene von der zugrunde liegenden Server- und
Speicherinfrastruktur führt. Die Architektur wird insgesamt transparenter und weniger komplex.
Verfügbare IT-Kapazitäten lassen sich effektiver ausnutzen. In der Folge sinken sowohl der
Investitionsbedarf als auch laufende Managementkosten signifikant. Automatisierung schließlich
vollzieht den Schritt in Richtung einer aktiven, sich selbst verwaltenden Anwendungsinfrastruktur,
die eine flexible Synchronisation mit Geschäftsprozessen ermöglicht und gleichzeitig für die
notwendige Prozessstabilität sowie für Konformität mit rechtlichen und anderen Richtlinien
sorgt.

Um den Investitionsbedarf für die standortübergreifende Konsolidierung von Applikations- und
Fileservern möglichst gering zu halten, empfiehlt sich die Anbindung über bestehende IP-Leitungen.
Voraussetzung dafür sind zuverlässige Performance-Werte beim Datei- und Anwendungszugriff in den
Niederlassungen. Latenzen stellen hier eine ernste Herausforderung dar. Das Öffnen eines normalen
Word-Dokuments dauert via WAN beispielsweise gut zehnmal so lange wie im lokalen Netz.
Excel-Dateien sind sogar noch schwerfälliger: Hier vergehen nicht selten 40 Sekunden, bis ein
Tabellenblatt endlich auf dem Bildschirm in der Zweigstelle erscheint. Entsprechend wenig Akzeptanz
bringen Mitarbeiter in Filialen für Konsolidierungsprojekte auf, die ihre Produktivität
beeinträchtigen, statt sie zu verbessern.

Anwendungsoptimierung beginnt im WAN

Abhilfe schaffen hier WAN-Optimierungslösungen, die meist nach einem symmetrischen Prinzip
arbeiten (also an beiden Enden der WAN-Leitung) und entweder als Appliance oder als Einsteckmodul
für Router implementiert werden. WAN-Optimierung bekämpft Laufzeitprobleme sowohl auf der
Transport- und Protokollschicht als auch auf Anwendungsebene. Beispielsweise wird ein
Office-Dokument während der Bearbeitung in einem lokalen Cache zwischengespeichert. Dies minimiert
den Overhead von Dateizugriffsprotokollen wie CIFS (Common Internet File System). Wie andere
Protokolle auch trägt CIFS noch Altlasten aus der LAN-Ära: Es produziert eine Unzahl von
Nachrichten zwischen Client und Server. Latenzen im WAN bereiten CIFS große Schwierigkeiten, denn
sie bringen die synchrone Nachrichtenverarbeitung - etwa bei Öffnen oder Speichern von Dokumenten -
ins Stocken. Auf der Transportschicht kompensiert ein Stack Paketverluste, um den TCP/IP-Durchsatz
zu erhöhen. Zudem eliminieren Caching- und Kompressionsverfahren redundante Informationen, um
weniger Daten via WAN transportieren zu müssen. Damit erreichen viele Office- und SAP-Anwendungen
via WAN fast so gute Performance-Werte wie im LAN.

Die Vorteile der Außenstellenkonsolidierung auf Basis leistungsoptimierter IP-Leitungen liegen
auf der Hand: Zentralisierte Server und Speichermedien lassen sich gemeinsam und somit weitaus
effizienter administrieren als im dezentralen Szenario. Applikationsänderungen müssen in den
Filialen nicht länger mehrfach nachvollzogen werden. Managementkosten sinken, die
Reaktionsfähigkeit auf neue Geschäftsanforderungen steigt. Zudem profitieren die Anwendungen in den
Filialen von zentral vereinheitlichten Datensicherungsverfahren - und das heißt höhere
Verfügbarkeit der Business-Applikationen zu deutlich verringerten Backup-/Recovery-Kosten.

Anwendungen und Ressourcen entkoppeln

Selbstverständlich stellt die IT-Abteilung die Applikations- und Fileserver aus den Zweigstellen
nicht einfach eins zu eins im Rechenzentrum wieder auf. Vielmehr legt die Konsolidierung den
Grundstein für die umfassende Virtualisierung von Server-, Storage- und Netzwerkressourcen. Durch
die Trennung der logischen von der physischen Ebene wandelt sich die IT-Infrastruktur zum flexiblen
Ressourcenpool. Sobald zum Beispiel alle verfügbaren Speicherkapazitäten zu einer
unternehmensweiten SAN- oder NAS-Umgebung (Storage Area Network/Network-Attached Storage)
zusammengefasst sind, wandelt sich Speicherplatz zum netzwerknahen Service, der sich bedarfsgerecht
dosieren lässt. In virtualisierten Umgebungen sind Geschäftsanwendungen und ihre Daten also nicht
mehr von bestimmten Servern oder Speichermedien abhängig. Wichtig ist dabei allerdings, dass
Server- und Storage-Virtualisierung eng miteinander verzahnt sind. Unter dieser Voraussetzung sind
Daten und Anwendungen unterbrechungsfrei in der gesamten Infrastruktur verschiebbar. Dies
verbessert nicht nur die Systemauslastung, sondern auch die Verfügbarkeit und Flexibilität der
Infrastruktur. Bislang ist dies allerdings noch weitgehend Zukunftsmusik, wenngleich die Hersteller
bereits die ersten Integrationsschritte unternehmen.

Sowohl im SAN wie auch im NAS kann man mithilfe von Virtualisierung auch administrative
Speicherprozesse konsequent ins Netzwerk verlagern. Beispielsweise lassen sich verteilte physische
Speichersysteme in einem gemeinsamen logischen Pool nach Speicherebenen klassifizieren. Kritische
Geschäftsdaten werden hochverfügbaren Ebenen zugeteilt, während Testdaten oder weniger sensible
Informationen auf einer zweiten oder dritten Ebene liegen. Die Integration mit Backup-Lösungen
ermöglicht zudem Datenreplikationen zwischen physischen und virtuellen Volumes sowie zwischen
virtuellen Volumes, ohne Serverressourcen zu belasten. Auch die gespiegelten Datenkopien lassen
sich unterschiedlichen Speicherebenen zuordnen, was die Auslastung der vorhandenen Ressourcen
optimiert.

Perspektivisch überwindet Virtualisierung vollständig die bisherige Trennung von Server- und
Storage-Welt. Mit dem Konzept einer Unified Fabric gewinnt das Bild eines durchgängig
Ethernet-basierten Rechenzentrums inzwischen klare Konturen. So kapseln moderne
Data-Center-Switches SAN-Protokolle mittlerweile komplett in Ethernet und bringen Fibre Channel
(als Fibre Channel over Ethernet, FCoE) direkt bis zum Server-Rack. Dies reduziert insbesondere die
Zahl der Interfaces und vereinfacht die Administration von Rechnern und Speichergeräten
beträchtlich.

Selbstverwaltete Infrastruktur

Auf dem Weg in Richtung einer konsolidierten, umfassend virtualisierten Serviceinfrastruktur
benötigen Rechenzentren effiziente Administrationslösungen, um die IT-Anwendungen flexibel mit
Geschäftsprozessen zu synchronisieren. Hier sind Regelwerke ein erster Schritt hin zu einem
automatisierten RZ. Mit ihrer Hilfe lassen sich riesige Datenvolumina im TByte- bis PByte-Bereich
effizient über ihren gesamten Lebenszyklus hinweg verwalten - von der Entstehung bis zur
Archivierung und Löschung. Nicht zuletzt hilft die Automation per Richtlinien (Policies),
gesetzliche Aufbewahrungspflichten zuverlässig und kosteneffizient einzuhalten.

Ähnliche Vorteile zeigen Policies im Server- und Netzwerkumfeld - zum Beispiel bei der
Servicebereitstellung mit Templates, die sich auf bestimmte Anwendungskategorien beziehen, zum
Beispiel auf das Personalmanagement, die Buchhaltung oder die Warenwirtschaft. Für jede dieser
Anwendungskategorien regeln eigene Policies die Parameter für die CPU-Überwachung, Lastverteilung
und die Zuweisung von Netzwerk- und SAN-Ressourcen. Fällt eine Komponente in einem Ressourcen-Pool
aus oder wächst der Bedarf, gelten die Richtlinien automatisch auch für ausgetauschte oder neu
eingefügte Geräte. Bei einem zusätzlichen Server etwa wird das entsprechende Betriebssystem-Image
ohne manuellen Administratoreneingriff aufgespielt.

Allerdings sind IT-Infrastrukturen keine statischen Gebilde. Sie verändern sich permanent - und
je komplexer sie sind, desto schwieriger ist es, diese Änderungen im Blick zu behalten und im
Regelwerk abzubilden. Daher sind Werkzeuge zur automatischen Erkennung unterschiedlicher
Anwendungen erforderlich, die auch die dynamischen Abhängigkeiten der Applikationen untereinander
sowie von Speicher-, Rechen- und Netzwerkressourcen identifizieren. Es empfiehlt sich, eine
Software zur Sammlung, Katalogisierung, Nachverfolgung und Verwaltung sämtlicher
Konfigurationsdaten im RZ zu installieren. Die Informationen fließen dann in einer
unternehmensweiten Configuration Management Database (CMDB) zusammen und stehen in Echtzeit zur
Verfügung.

Sämtliche Configuration Items sollte die IT-Abteilung kontinuierlich überwachen - und damit auch
alle laufenden Anwendungen, deren Beziehungen untereinander und die Abhängigkeiten von der zugrunde
liegenden Infrastruktur. Bei jeder Änderung oder Störung der Infrastruktur ist dann schnell klar,
welche Geschäftsprozesse betroffen sind - oder wo der ursächliche Fehler liegt. Ein derartiges
Erkennungsverfahren identifiziert Anwendungen und bildet auch deren Module, Komponenten und
Zusammenhänge ab, einschließlich aller Zusammenhänge zwischen verschiedenen Instanzen von
Applikationsservern und Datenbanken. Man spricht hier von "High-Definition"-Erkennung, weil ein "
hochauflösendes" Bild der Applikationslandschaft und ihres Beziehungsgeflechts entsteht.

Der entscheidende Vorzug dieses Ansatzes liegt darin, dass Abhängigkeiten zwischen Applikationen
und Infrastrukturkomponenten anhand bestimmter Merkmale automatisch erkannt werden, und zwar für
das Management physischer wie auch virtueller Ressourcen. Geschäftsanwendungen werden so zu Gruppen
zusammengefasst, für die sich automatisierte Konfigurations- und Administrationsprozesse etablieren
lassen. Voraussetzung ist allerdings, dass die CMDB stets aktuell ist. Weil nun Virtualisierung
jeden festen Bezug zwischen Anwendung und physischen Infrastrukturkomponenten aufhebt, sind die
Konfigurationsdaten über sämtliche CMDB-Quellen hinweg permanent zu synchronisieren.

Ralf Eberhardt ist Consulting Systems Engineer Sales/Channel bei Cisco. Alice Eschrich ist Marketing Manager EMEA bei der EMC Ressource Management Software Group, Mika Kotro Product Marketing Manager bei EMC Deutschland.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+