Die konsequente Modernisierung im Rechenzentrum schließt auf technischer Ebene zwingend eine effiziente Cloud-Nutzung ein und basiert auf einem durchgehenden Daten- sowie Compute-Management für das gesamte Ökosystem. Das Verwalten seiner Daten und CPU-Ressourcen darf einen Anwender nicht überfordern, sondern muss ihm leicht von der Hand gehen. Das gilt On-Premises, in der Public Cloud oder in der Hybrid Cloud. Nur ein einfaches, effizientes Datenmanagement für die Unternehmens-IT kommt im Zeitalter der Multi Cloud noch in Frage. Nach diesen Kriterien und ob die einfache Migration von alt zu neu, beispielsweise zu HCI, möglich ist, sollten Unternehmen ihre Datenmanagementplattform auswählen.
Auch die HCI-Systeme unterscheiden sich im Detail durchaus deutlich. Das sollten Unternehmen vor dem Investieren berücksichtigen. So gibt es einige Merkmale, die essenziell sind und nur die neueste HCI-Generation bietet. Ein solches System trennt beispielsweise Storage- und Serverressourcen. Unabhängig voneinander lassen sich die tatsächlich benötigten Speicherkapazitäts- oder Rechen-Nodes hinzufügen. Diese granulare, komponentenbasierte Skalierung verhindert das sonst übliche „Overprovisioning“, was derzeit oft noch Standard bei HCI alter Schule ist und bedeutet: Braucht der Kunde mehr Serverleistung, kauft er nicht benötigten Speicherplatz zwingend mit. Leistungsmäßig bezahlt macht sich darüber
hinaus, wenn Storage- und Compute-Nodes separate CPUs haben. In dem Fall wirkt sich eine hohe Storagelast nicht auf die Compute-Performance aus.
Mit einer ausgereiften HCI lassen sich die Ausgaben noch weiter senken. So fallen bei diesen Systemen weniger Serverlizenzkosten an, die üblicherweise pro Prozessorkern berechnet werden. Anders als bei herkömmlichen HCI-Lösungen sind die Storage-Kapazitäten von der Compute-Leistung entkoppelt. Ohne diese Storage-Compute-Trennung arbeiten 30 bis 40 Prozent der Kerne einer HCI-Lösung für den virtualisierten Storage und erfordern entsprechende Lizenzen, die sich schnell summieren.
Für ein ebenso wesentliches Feature ist das Storage-Betriebssystem einer HCI zuständig. Es muss dafür sorgen, dass jeder Workload, der auf einer gemeinsam genutzten Infrastruktur läuft, die notwendige I/O-Leistung erhält. Dadurch kommt es nicht zu Leistungseinbrüchen. Als optimal erweist sich, wenn sich die sogenannte Quality of Service (QoS) bis auf die Ebene einzelner Applikationen oder virtueller Festplatten herab granular steuern lässt. Neben der garantierten Mindestperformance kann man dann auch Performance-SLAs für Workloads umsetzen.
IT-gestützte Prozesse revolutionieren
Ohne HCI verzichten Unternehmen also möglicherweise auf betriebswirtschaftliche Einsparungen. Monolithische Rechenzentrumsentwürfe alter Schule sind hier wenig innovationsfördernd und binden teures Personal. Die Public Cloud alleine stellt Herausforderungen an die Datenhoheit und den gesetzeskonformen Umgang mit Daten (Stichwort „Shadow IT“). Im Gegenzug ist die Hauptaufgabe der IT-Verantwortlichen, die IT-Landschaft so zu gestalten, dass sie ein erfolgreiches Geschäft fördert. Eine Fachabteilung erwartet heute zu Recht, dass ihre IT-Services schnell, flexibel, in angemessener Vielfalt und der gewünschten Performance bereitgestellt werden und der Weg in die Cloud, wo erforderlich, nahtlos möglich ist.
André M. Braun ist Manager Cloud Infrastructure Sales DACH bei NetApp