Fünf Sünden bei der Virtualisierung

Was Unternehmen bei Virtualisierungsprojekten auf jeden Fall vermeiden sollten

29. Juni 2010, 6:00 Uhr |

Das Jahr 2010, das hatten die Analysten von Gartner und andere Technologie-Experten vorhergesagt, soll das Jahr der Virtualisierung werden - neben Cloud Computing und Web 2.0. Zum Ende der ersten Jahreshälfte stellen die Experten von Consol Software (www.consol.de) fest, dass die Nachfrage steigt und viele Unternehmen bereits Virtualisierungsprojekte durchführen. Der Münchener Full-Service-IT-Anbieter für Mittelstandskunden und Konzerne gibt jedoch zu bedenken, dass bei allen Vorteilen, die Virtualisierung mit sich bringt, die möglichen Nachteile leicht übersehen werden.

Dies muss nicht sein, wenn man einige wichtige Regeln beachtet und Stolperfallen ausweicht.
Daher gibt Consol einen Überblick über die fünf häufigsten Sünden bei
Virtualisierungsprojekten.

"Bei Virtualisierungsprojekten sollte man mindestens genauso umfassend vorgehen wie
bei sonstigen Projekten, und zwar auf allen Ebenen. Interne Anforderungen und konkrete Ziele
sollten geklärt werden, die beteiligten Personen involviert und ein Proof of Concept erarbeitet
werden. Dabei kann man sich Virtualisierungslösungen und -konzepte von Lösungspartnern
demonstrieren und erklären lassen. Das erspart Erfahrungen, die bereits andernorts gemacht wurden",
so Christian Botta, Leiter Business Unit Virtualisierung bei Consol.

Diese fünf Sünden sollten vermieden werden:

1. Unterschätzung der Frage „Storage Performance“

Der Bereich Storage wird bei Virtualisierungsprojekten oft ausgeblendet, zumindest
jedoch stark unterschätzt. Ein Storage-System – an zentraler Stelle und unter falschen
Gesichtspunkten konzipiert – wird schnell zum limitierenden Faktor einer gesamten virtuellen
Umgebung, wenn zeitgleich viele virtuelle Maschinen um den Zugriff konkurrieren.

Gezielte Überlegungen und Investitionen in adäquate Hardware helfen, die
erforderliche Performance zu garantieren. IT-Verantwortliche sollten sich insbesondere über die
Zugriffsmuster ihrer virtuellen Umgebungen im Klaren sein. Bei den in aller Regel verteilten
Zugriffsmustern (Random-I/O) sind weder die sequenzielle Übertragungsleistung noch die Kapazität
von Festplatten ausschlaggebend, sondern die Anzahl möglicher Input/Output Operations (I/O) pro
Sekunde.

Generell empfehlen sich umdrehungsstarke SAS/FC-Platten in Kombination mit
RAID10-SATA-Platten in RAID5-Verbünden sind preislich günstig, erfüllen aber selten die
Anforderungen, die an virtuelle Umgebungen gestellt werden. Ausnahmen sind Performance-unkritische
Systeme oder Systeme mit stark sequentiellen Lesezugriffen.

2. Unklarheit über interne Verrechnung und Arbeitsabläufe

Ein weit verbreiteter Irrglaube bei der Einführung von Virtualisierung ist, dass
die IT danach kaum Geld kostet. Gerade dieser Irrglaube kann zur Kostenfalle werden. Virtuelle
Systeme kosten weiterhin Geld: Leistungsstarke physische Server müssen beschafft, kompetentes
Personal geschult und eventuell neu eingestellt werden. In der IT-Abteilung ist das nötige
Bewusstsein meist vorhanden. Der vorauseilende Ruf der Virtualisierung macht es jedoch oft schwer,
dieses Bewusstsein auch im Rest des Unternehmens zu verankern.

Die Kostenverrechnung beziehungsweise die Freigabe von virtuellen Maschinen muss im
Vorfeld geklärt werden. Auch wenn keine interne Verrechnung betrieben wird, sollten die Bedingungen
für das Bereitstellen von virtuellen Maschinen klar definiert sein. Diese umfassen insbesondere den
benötigten Vorlauf und zuständige Ansprechpartner zur Beantragung von virtuellen Maschinen.
Idealerweise sind diese Ansprechpartner auch diejenigen, die bei Bedarf neue physische Server oder
benötigte Lizenzen bewilligen oder beantragen können, also Personen, bei denen sich potentiell am
ehesten ein Kostenverständnis einstellen kann.

3. Wildwuchs der virtuellen Maschinen

Die relative Einfachheit, mit der sich virtuelle Maschinen bereitstellen lassen,
führt häufig dazu, dass zu viele ungenutzt und "verwildert" im Rechenzentrum ihr Dasein fristen.
Dieser Wildwuchs stört die effiziente Nutzung von Ressourcen.

Hier gilt es mit der nötigen und auch bisher gewohnten Sorgfalt vorzugehen, um den
Überblick zu behalten. Virtuelle Maschinen sollten analog zu ihren physikalischen Clients
dokumentiert werden. Wird eine virtuelle Maschine nur temporär genutzt, dann sollte dieser Zeitraum
genau vermerkt werden, damit nach Ablauf dieses Zeitraums die virtuelle Maschine wiederverwendet
werden kann. Ungenutzte virtuelle Maschinen sollten die IT-Umgebung nicht bevölkern – das erhöht
lediglich den Verwaltungsaufwand und sorgt für potenzielle Engpässe.

4. Unklarheit über Features, Lizenzen und deren Voraussetzungen  

Viele Unternehmen, die Virtualisierung einführen möchten, sind nicht ausreichend
über die Vielzahl an Features informiert, die Virtualisierungsplattformen mit sich bringen.
Beispiele sind Maßnahmen zur Ausfallsicherheit oder Funktionen wie automatisches Verschieben von
virtuellen Maschinen abhängig von der Ressourcen-Auslastung.

IT-Verantwortliche sollten sich ausführlich informieren, wie die einzelnen Features
funktionieren und mit welchen Einschränkungen oder spezifischen Anforderungen sie einhergehen. Nur
so kann garantiert werden, dass die IT-Umgebung in Extremsituationen so funktioniert, wie sie soll
und die übrige Infrastruktur im Storage- und Netzwerk-Bereich darauf abgestimmt werden kann. Ebenso
gilt es, die Lizenzierung unterschiedlicher Features und – ganz wichtig – mögliche
Lizenz-Upgrade-Pfade im Blick zu haben, um sicherzugehen, dass die Anforderungen von heute und
morgen umsetzbar sind.  

5. Backup und Disaster Recovery

Virtualisierung wird von vielen als der Heilsbringer gesehen. Die meisten übersehen
jedoch, dass die mit der Virtualisierung einhergehende Konsolidierung eine neue Risikobetrachtung
für Systemausfälle erfordert. Fällt ein physischer Server oder ein Storage-System aus, so sind
davon potentiell deutlich mehr Systeme betroffen als vor der Virtualisierung. Ist man darauf nicht
vorbereitet, wird Konsolidierung schnell zu einem zweischneidigen Schwert.

Die bisherigen Abläufe zur Sicherung, Rücksicherung sowie zum Disaster Recovery
müssen unbedingt unter den Rahmenbedingungen einer virtuellen Umgebung beleuchtet werden: Wie
kompensiert man den Ausfall eines Servers? Wie geht man mit einem Ausfall von Verwaltungsdiensten
der virtuellen Umgebung um? Wie führt man eine Komplettsicherung und -Rücksicherung der virtuellen
Maschinen durch? Wie kann der Ausfall eines zentralen Storage-Systems abgefangen werden?

Dies sind allesamt Überlegungen, die man sich bereits für bisherige Umgebungen
gestellt hat, die mit der enorm hohen Dichte von virtuellen Maschinen aber an Brisanz gewonnen
haben. Nur weil weniger physische Server das Rechenzentrum bevölkern, bedeutet das bei Weitem
nicht, dass darauf auch weniger unternehmenskritische Systeme betrieben werden – meist ist genau
das Gegenteil der Fall.

LANline/jos


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+