Die Virtualisierung der IT ist für die Unternehmen das Thema. Zumal mit dieser Virtualisierung die wirtschaftliche und funktionale Basis für Cloud-Computing gelegt wird. Im Brennpunkt des Virtualisierungsgeschehens im Datacenter stehen vor allem die Server und Desktops. Oder sollte das Unternehmen doch besser auf Cloud-Services bauen und damit dem Cloud-Provider auch die IT-Virtualisierung übertragen?
Durch die Virtualisierung von Servern und Desktops können Datacenter ihre IT-Leistungen im Vergleich zu heute deutlich kostensparender erbringen. Außerdem gewinnen sie durch die logische Zuordnung von Server- und Desktop-Ressourcen mehr an Flexibilität, ihre Erbringung von IT-Leistungen jeweils am aktuellen Bedarf der Abteilungen auszurichten und diese Leistungen kostenstellenbezogen abzurechnen. Darüber hinaus macht eine weitgehende
Automatisierung der Geschäftsprozesse den Unternehmen und ihrem Datacenter Druck, die Ressourcen von Servern und Desktops dynamisch diesen Prozessen bereitzustellen. Doch so vielversprechend die Vorteile der IT-Virtualisierung den Unternehmen und ihren Datacentern auf dem Weg ins Cloud-Computing auch erscheinen mögen: Zuvor fallen erhebliche Investitionen und Aufwendungen an. Sie können den Return-on-Investment (ROI) mehr oder weniger deutlich hinauszögern.
Nicht jeder der installierten Server ist virtualisierungsfähig. Selbst wenn, kann im heterogenen Server-Umfeld der Einsatz unterschiedlicher Virtualisierungs-Tools notwendig werden. Denn längst nicht jede Virtualisierungs-Software, die meisten davon lizenzkostenpflichtig, ist auf jedem Betriebssystem beziehungsweise auf jeder Betriebssystemversion lauffähig. Statt der durchgehenden Virtualisierung sämtlicher Server-Kapazitäten drohen kapazitätsbegrenzende Virtualisierungsinseln. Deshalb fordern die Hersteller von Hardware zu einer Standardisierung, eigentlich Homogenisierung, der Server-Installation auf. Doch genau diese Homogenisierung, um schließlich mit 30 bis 60 Prozent weniger an Servern auszukommen, zieht Hardware-Neuanschaffungen nach sich, und oft die Anschaffung geeigneter Peripherie für Power & Cooling gleich mit. Haben die Server, die ausgemustert werden, ihr Abschreibungsende noch nicht erreicht, entstehen Abschreibungsverluste. Auch sie verlagern den Zeitpunkt für die Amortisierung weiter in die Zukunft. Weitergehende Managementwerkzeuge, so für IT-Service-Management (ITSM), und die Einführung eines neuen Service-Modells gemäß ITIL werden erforderlich. Sie müssen verstanden, angeschafft, projektiert und anschließend betrieben werden. Weniger Server bedeutet nicht zwangsläufig, dass die IT-Komplexität geringer wird. Ganz im Gegenteil: Durch die Einführung einer zusätzlichen, logischen Zuordnungs- und Ausführungsschicht nimmt die Komplexität innerhalb der Server-Installation zu. Und den Energie- und CO2-Einsparungen durch wenigere, leistungsfähigere Server im Datacenter? Ihnen steht bedingt durch die Server-Virtualisierung erst einmal viel Hardware entgegen, die entsorgt werden muss, was wiederum die Umwelt belastet.
Virtualisierte Desktops haben mit vielen dieser Nachteile nicht zu kämpfen. In der Regel können die bestehenden Fat-Clients weiterhin Dienst tun, weil zentrale Server, genauer gesagt virtuelle Maschinen, ihre Arbeiten verrichten. Der Mitarbeiter meldet sich über die Browser-Oberfläche an seinem virtuellen Desktop an. Danach greift er mittels Desktop-as-a-Service (DaaS) auf seine Programme, Funktionen und Daten zu, die logisch zentral gehalten werden. Potenzielle Einschränkungen, durch die sich der Zeitraum bis zum ROI verlängern kann, bleiben aber auch hier. Die Netzverbindungen müssen die zusätzlichen Übertragungslasten ohne Verfügbarkeits- und Performance-Verluste aufnehmen können. Besonders an den Weitverkehrverbindungen kann es eng werden. DaaS verbrauchen auf der Seite der Server zusätzliche Kapazitäten, die hier eingeplant werden müssen. Das kann sogar soweit führen, dass an den Servern zusätzliche Wärme entsteht, die gekühlt oder abgeführt werden muss. Ein professionelles Workplace-Management muss errichtet und betrieben werden. Es muss in der Regel alle installierten Desktops – Fat-Clients, virtuelle Clients und gegebenenfalls Thin-Clients – überwachungs- und verwaltungstechnisch beherrschen.
Ein Wechsel zu DaaS wird immer nur in Schritten, in Form einer sanften Migration möglich sein. Darüber hinaus können laufende Client-Software-Lizenzverträge, alte gewachsene PC-Betriebs- und Suppportstrukturen, fehlendes Betriebs-Know-how über das neue DaaS-Modell und Vorbehalte der Mitarbeiter gegenüber dem zentralem Vorhaltungskonzept von Programmen, Funktionen und Daten einen vertretbaren ROI gefährden.
Nichtsdestotrotz sind die in der Server- und Desktop-Virtualisierung für Datacenter schlummernden Einsparungen groß und beide Virtualisierungsformen für die Unternehmen unumkehrbar. Zumal die Server- und Desktop-Virtualisierung, aber auch die Virtualisierung von Speichern, die Grundvoraussetzungen für Cloud-Computing bilden. Fast alle Speicher sind direkt (Online-Speicher) oder indirekt (Offline-Speicher) mit Servern verbunden. Die Virtualisierung dieser Server ist damit bereits die Hälfte der Wegstrecke für eine optimierte Speicherausschöpfung. Bestenfalls kleine Unternehmen ohne Datacenter dürften an der IT-Virtualisierung vorbeikommen, indem sie die IT-Leistungen, die sie brauchen, in Form externer Cloud-Services abrufen. Für alle anderen Unternehmen wird die Virtualisierung ihrer IT im Datacenter zunehmend zum Pflichtprogramm.