Mehr Leistung, eine bessere Skalierbarkeit und eine deutlich höhere Agilität. Das sind Forderungen, die heute ein Rechenzentrum erfüllen muss. Doch herkömmliche Datacenter-Infrastrukturen können diesen nicht immer gerecht werden. Eine praktikable Lösung ist eine Hyperkonvergente Infrastruktur (HCI).
Die traditionelle Rechenzentrumsinfrastruktur ist in die Jahre gekommen. Das zeigt sich spätestens dann, wenn ein Unternehmen Geschäftsprozesse und Services digitalisieren möchte. „Mal eben schnell“ einen neuen Online-Service für Kunden oder eine Collaboration-Plattform für Mitarbeiter bereitzustellen, funktioniert nicht mit einem „Datacenter 1.0“.
Einen Ausweg bietet eine Hyperkonvergente Infrastruktur (Hyper-Converged Infrastructure, HCI). Sie kombiniert Server, Speicherressourcen, Netzwerkkomponenten sowie eine Virtualisierungs- und Managementsoftware in einem System. Vergleichsweise kostspielige Lösungen wie ein Storage Area Network (SAN) sind nicht mehr erforderlich. Eine Hyperkonvergente Infrastruktur kommt vor allem dann in Betracht, wenn Rechenleistung und Storage-Kapazität im Gleichschritt skalieren müssen – also bei einer Skalierung auf Systemebene. Das ist bei Workloads der Fall, die eine bestimmte CPU-Leistung und ein festgelegtes Maß an Arbeitsspeicher (RAM), Speicherplatz und IOPS (Input/Output Operations per Second) benötigen. Zu dieser Kategorie zählen beispielsweise virtualisierte Desktop-Umgebungen.
Vorteile bietet eine HCI außerdem dann, wenn vor Ort in Niederlassungen ein „Mini-Rechenzentrum“ installiert werden soll. Hier lässt sich eine vorkonfigurierte HCI-Appliance mit geringem Aufwand implementieren und auf einfache Weise erweitern, indem weitere Knoten (Nodes) hinzugefügt werden. Eine SAN ist nicht erforderlich.
Anders ist die Lage bei Applikationen, die vertikal skalieren. Das ist bei monolithischen Anwendungen gegeben – also großen, geschlossenen Softwareumgebungen. Solche Systeme finden sich beispielsweise in der Finanzsparte.
Steigen die Datenmengen, die ein solches System verarbeiten muss, werden die Storage-Ressourcen erweitert. Die Rechen- und Netzwerkkapazitäten bleiben unverändert. In diesem Fall ist eine Skalierbarkeit auf der Komponentenebene der bessere Ansatz.