Thema der Woche: Erfolgreiche Server-Virtualisierung, Teil 1 (Fortsetzung)
- Thema der Woche: Erfolgreiche Server-Virtualisierung, Teil 1
- Thema der Woche: Erfolgreiche Server-Virtualisierung, Teil 1 (Fortsetzung)
- Thema der Woche: Erfolgreiche Server-Virtualisierung, Teil 1 (Fortsetzung)
- Thema der Woche: Erfolgreiche Server-Virtualisierung, Teil 1 (Fortsetzung)
- Thema der Woche: Erfolgreiche Server-Virtualisierung, Teil 1 (Fortsetzung)

Network Computing: Welche Risiken geht ein Unternehmen ein, wenn es alle Server virtualisiert?
Barth: »Die Risiken sind geringer als ohne Virtualisierung. Wenn ein physikalischer Server ausfällt, fallen zwar mehrere virtuelle Server aus. Diese lassen sich dann aber automatisch in kurzer Zeit wieder starten. Dies bedeutet eine höhere Verfügbarkeit. Ein Unternehmen muss darauf achten, dass die Dateien, aus denen die virtuellen Server bestehen, zentral verfügbar sind. Außerdem müssen sie, wie bei physikalischen Servern auch, gesichert werden.«
Hutter: »Ein Risiko entsteht eigentlich nur dann, wenn vorher bei der Planung und Konzeption geschlampt wird. Dies gilt insbesondere beim zentralen Storage, der das Herzstück einer guten Virtualisierung ist. Zudem halte ich es für unrealistisch, alle Server zu virtualisieren. Es gibt etwa Server, die einfach da sein müssen, bevor die Hosts der Virtualisierungssysteme gestartet werden können.«
Martin Niemer, Group-Manager, Product-Marketing bei Vmware Global: »Bei einer guten Planung keine. Es zeigt sich ganz klar, dass die Gesamtverfügbarkeit der Systeme nach oben geht. Dies liegt an der Hardwareunabhängigkeit von virtuellen Maschinen (VM) und der Verringerung der Downtime (Wartung und Ausfall). Dies setzt eine Virtualisierungslösung voraus, die es einmal ermöglicht VMs im Betrieb zu verschieben. Zum anderen muss sie diese bei Ausfall eines Servers auch sofort wieder neu starten.«