Virtuelle Server

19. Oktober 2007, 9:55 Uhr |

Fortsetzung des Artikels von Teil 1

Lastverteilung und Hochverfügbarkeit

Als weitere Einsatzzwecke führt Martin Niemer, hierzulande Senior Product Marketing Manager bei VMware, dem derzeit führenden Anbieter von Virtualisierungssoftware, Hochverfügbarkeit, Disaster Recovery und Systemwiederherstellung sowie Lastverteilung an. Die erste Generation der Virtualisierungssoftware, die VMware 2001 auf den Markt brachte, bestand praktisch nur aus dem Hypervisor. Die zweite Generation ergänzte Management-Funktionen und die dritte Prozeduren für Lastverteilung und Hochverfügbarkeit. Der Hauptwettbewerber Xen Source kann solche Erweiterungen im Moment noch nicht bieten, wie CTO und Mitgründer Simon Crosby einräumt, doch im ersten Quartal des kommenden Jahres will man so weit sein. Brian Gammage, Analyst bei dem Marktforschungshaus Gartner, sagt voraus: »Die Management-Infrastruktur zur Handhabung virtueller Maschinen wird für die Hersteller bald wichtiger sein als der Hypervisor.« Es gibt unterschiedliche Ansätze, Rechner zu virtualisieren. Bei VMware setzt die Virtualisierung direkt auf der Hardware auf: Ein sogenannter Hypervisor vermittelt die Befehle verschiedener Betriebssysteme, die gleichzeitig laufen können, an die darunterliegende x86-Hardware. »Das hat Vorteile im Hinblick auf die Performance und das Patch-Management«, begründet Niemer die Wahl. Xen Source hat dieselbe Form der Virtualisierung gewählt. Bei x86-Rechnern ist die Auslastung meist besonders schlecht, sie liegt Niemer zufolge nur um die 10 Prozent, sodass hier Virtualisierung den größten Nutzen verspricht. Und nicht zuletzt beruhen die meisten Computer, die ausgeliefert werden, auf diesem Chip-Befehlssatz.


  1. Virtuelle Server
  2. Lastverteilung und Hochverfügbarkeit
  3. Eingebaute Virtualität
  4. Betriebssysteme am Wendepunkt

Jetzt kostenfreie Newsletter bestellen!

Matchmaker+