Das Gegenteil eines statischen ist ein dynamisches Rechenzentrum, dies wird jedoch nicht schlagartig quasi über Nacht entstehen, sondern Schritt für Schritt. Den Ausgangspunkt bilden in aller Regel die Server, speziell die bereits virtualisierten Server. Denn hier ist eine der grundlegenden Voraussetzungen eines dynamischen Datacenters bereits vorhanden: Es gibt keine zwingenden Verbindungen mehr zwischen dem Server-Image und der Hardware. Die für statische Rechenzentren charakteristische inflexible und starre Kopplung ist aufgehoben. Modellmäßig, und in virtuellen Serverumgebungen bereits praktiziert, wird das Server-Image an einem zentralen Speicherort gelagert und bei Bedarf auf einem dafür vorgesehenen – bereits vorhandenen oder eigens angeschafften – Server bereitgestellt und gestartet.
Damit der automatisch gestartete Bootvorgang korrekt abläuft, muss der Server zunächst über entsprechende Kommunikationskanäle mit dem Netzwerk und den Speichersystemen verbunden sein, um das Server-Image und die Applikationen zu übermitteln. Dazu bedarf es koordinierter Aktionen zwischen den verschiedenen Technologie-Silos, die in einem statischen Rechenzentrum recht komplex sein können, in einen dynamischen Datacenter weitgehend automatisch ablaufen sollten.
Für solche Aufgaben steht beispielsweise der „Dell Advanced Infrastructure Manager“ (AIM) bereit, einer von drei zentralen Bausteinen der IT-Management-Lösung „Virtual-Integrated-System“ (VIS). Als Steuerzentrale fungiert eine Controller-Software, die auf einem physikalischen Server oder einer virtuellen Maschine installiert ist. Für eine redundante Lösung wird ein zweiter Controller installiert, wobei beide Controller Zugriff auf das in einem SAN gespeicherte Konfigurations-Repository benötigen.
Der Controller läuft unter Red-Hat-Linux und benötigt eine Layer-3-Kommunikationsverbindung zu Servern und anderen Infrastrukturkomponenten, die mit dem IT-Managementsystem administriert werden sollen. Damit lassen sich dann physikalische Server, virtuelle Maschinen und Hy-pervisor (Virtual-Machine-Hosts, etwa von Citrix, Microsoft oder Vmware) integrieren. Die Systeme selbst werden dabei nicht weiter beeinflusst (non-intrusiv). Voraussetzung dafür ist jedoch, dass der Controller tatsächlich Zugriff auf die Server und Hypervisor hat und diese remote adminis-trieren kann. Das gleiche gilt für die Netzwerk-Switche. Bei vorrätigen oder fabrikneuen Servern ohne jegliches Betriebssys-tem (Bare-Metal-Servern) muss die Firmware-Einstellung auf „Network-Boot“ lauten und sie müssen mit dem LAN und SAN verbunden werden, und schon lassen sie sich als Baustein einer dynamischen Infrastruktur einsetzen.
Durch die Zusammenfassung physikalischer und virtueller Systeme entsteht ein gemeinsamer Pool von IT-Infrastruktur-Ressourcen, zwischen denen Arbeitslas-ten zugewiesen und verteilt werden können, um Spitzenbelastungen auszugleichen. Aus diesem Pool lassen sich zusätzliche physische und virtuelle Server bereitstellen und automatisch Rechenleistung, Storage und Netzwerkbandbreite aufteilen. Der Vorteil: Der Administrator muss sich dann nicht mehr mit dem Management verschiedener Hardware und Virtualisierungs-Layer oder unterschiedlichen Technologien beschäftigen, sondern lediglich mit einem einzigen Ressourcenpool.