Lange Zeit haben sich IT-Organisationen beim Capacity-Management darauf konzentriert, die Performance von Servern und Anwendungen zu messen und prognostizieren. Doch in virtuellen Umgebungen rücken IT- und Business-Services in den Mittelpunkt der Planungen. Dafür ist mehr als technisches Know-how erforderlich.
Billige Hardware ist daran schuld, so Forrester-Analyst Jean-Pierre Garbani: "Warum sollten
Unternehmen seltene und teure intellektuelle Ressourcen nutzen, wenn der Kauf zusätzlicher Hardware
eine wirtschaftlich machbare Alternative war?"
http://llschnuerer.cmpdm.de//articles/it-abteilungen_brauchen_mehr_innovationskraft:/2009002/31812108_ha_LL.html?thes=">IT-Abteilungen
brauchen mehr Innovationskraft
http://llschnuerer.cmpdm.de//articles/cebit_realtech_praesentiert_dependency_walker:/2009002/31828386_ha_LL.html?thes=">CeBIT:
Realtech präsentiert "Dependency Walker"
http://llschnuerer.cmpdm.de//themen/it-management/index.html">LANline-Themenkanal
IT-Management
Hinter den "teuren intellektuellen Ressourcen" verbirgt sich das traditionelle
Capacity-Management. Seine Aufgabe besteht darin, die IT-Ressourcen im Unternehmen entsprechend
seiner Aktivitäten und Bedürfnisse vorherzusagen und anzupassen.
"Dies gilt natürlich für Expansionspläne ebenso wie für Krisenzeiten", stellt Stephen Mann klar,
Analyst der Butler Group. "Wenn die Mitarbeiterzahlen sinken, muss die IT mit einem effektiven
Asset- und Kapazitäts-Management dafür sorgen, dass frei werdende Hardware sowie Softwarelizenzen
nicht einfach im Nirwana verschwinden. Und bevor neue Assets angeschafft werden, muss die
bestehende Infrastruktur besser genutzt werden. Das geht nur mit einem funktionierenden
Capacity-Management."
In den meisten Unternehmen beschränkt sich die Wahrnehmung von Aufgaben des Capacity-Management
allerdings auf die Server im Rechenzentrum – wenn überhaupt: Nach einer Umfrage von Gartner unter
50 Teilnehmern einer Data-Center-Konferenz haben gerade einmal 18 Prozent der Unternehmen
umfassende Best-Practices wie die Rolle eines Kapazitätsplaners, gut definierte Prozesse und auch
die Nutzung von Geschäftsdaten für die Planung eingeführt.
42 Prozent aber verzichten auf all dies. "Diese Organisationen riskieren Service-Ausfälle und
sind dann nicht in der Lage, diese Performance- und kapazitätsbedingten Incidents zuzuordnen",
warnt Gartner-Analyst Milind Govekar.
Wo spezielle Tools für das Capacity-Management im Einsatz sind, beschränken sie sich in der
Regel auf Komponenten der IT-Infrastruktur – und nicht auf IT- oder gar Business-Services. "Den
meisten Unternehmen fehlt die Reife, um über ihre IT-Silos hinwegzuschauen und diese Silos zu
IT-Services zu verbinden", kritisiert Govekar.
Eine Stufe höher noch ist das Business-Capacity-Management anzusiedeln. Es stellt sicher, dass
künftige Anforderungen des Unternehmens an IT-Services entsprechend der Vorhersagen und Pläne
umgesetzt werden können.
Doch nach Meinung der Experten muss dringend ein Umdenken stattfinden: Um die Vorteile der
Virtualisierung voll ausschöpfen zu können, geht es nicht mehr ohne Kapazitätsplanung: "Wenn
Virtualisierung für geschäftskritische Anwendungen genutzt wird, reicht ein bloßes Ausprobieren bei
der Service-Performance nicht", stellt Garbani klar. Selbst die bestmögliche reaktive Lösung sei
unter finanziellen Gesichtspunkten keine Alternative zu einer Präventionsstrategie.
Doch die herkömmlichen Capacity-Management-Tools sind laut Govekar und Garbani nicht geeignet,
mit ihren analytischen Modellen in virtuellen Umgebungen Kapazitäten festzulegen. "Sie bilden nicht
Ende-zu-Ende-Modelle ab, die auf IT- oder Business-Services basieren und die sich wiederum auf
verschiedene Komponenten beziehen", so der Gartner-Experte. Zudem werde durch die Virtualisierung
die Planung deutlich komplexer, da es durch Konflikte zwischen Anwendungen viel mehr unbekannte
Variablen gebe. Außerdem seien statt einer Langfristplanung heute verstärkt Entscheidungen in
Echtzeit gefordert.
Forresters Garbani kritisiert zudem, dass die Tools für das Capacity-Management nicht die
richtigen Parameter für Services in virtuellen Umgebungen liefern: "CPU-Last oder Speichernutzung
sind in virtuellen Umgebungen relativ bedeutungslos. Sie sind nur valide in stabilen Umgebungen, wo
man einen direkten Zusammenhang zwischen Arbeitslast und Antwortzeit herstellen kann."
Beispielsweise beeinflusse der Mix aus privilegierten und nicht-privilegierten Instruktionen in
einer Applikation die aktuelle Performance einer CPU in einer virtuellen Umgebung: Während
nicht-privilegierte Instruktionen direkt bei nominaler CPU-Geschwindigkeit ausgeführt werden,
müssen Instruktionen mit Vorrang vom Gastbetriebssystem durch den Hypervisor gehen. Dabei verändern
sie die nominale Performance der CPU.
Darüber hinaus empfiehlt Forrester weitere Systeme zur Entscheidungsunterstützung, die
detaillierte Informationen über Applikation oder auch über Arbeitslasten und Antwortzeiten auf
Netzwerkebene geben.
Gartner-Analyst Govekar hingegen rät IT-Organisationen, das Kapazitäts-Management auf eine
breitere Basis zu stellen. Um die Anforderungen des Unternehmens abzubilden, seien
IT-Ressourcen-Planungen vergleichbar dem Manufacturing Resource Planning in der Fabrik notwendig.
Auch müsste verstärkt Know-how über Mitarbeiterressourcen, Risiko- und Compliance-Anforderungen,
Finanzdetails oder Gebäude und Strom eingebracht werden: "Hauptvorteile der Virtualisierung sind
Energie- und Platzeinsparungen. Das kann doch nicht in einem Vakuum überprüft werden. So muss klar
sein, was mit den Räumlichkeiten geschieht und welchen Einfluss dies auf den Vertrag mit dem
Energielieferanten hat."
Sabine Koll/wg