Das Software-Defined-Datacenter ist eine vereinheitlichte Rechenzentrumsplattform, die der IT neue flexible und effiziente Bereitstellungsmechanismen bietet. Die Elemente der Infrastruktur – Netzwerk, Speicher, Prozessoren und Sicherheit – werden virtualisiert und als Service zur Verfügung gestellt. Ausschlaggebend dafür ist die Orchestrierung der hochgradig standardisierten Infrastrukturelemente durch intelligente Software – eine virtuose Virtualität.
Die kann man eine „coole“ End-User-Experience definieren? Indem zuerst einmal geschaut wird, was Apple macht. Diese Meinung vertritt Analyst Gartner: „Apple hat demonstriert, dass Kunden die nahtlose Erfahrung, dieser Synthese aus Hardware, Software und Service, wertschätzen. Sie schätzen, was diese nahtlose Erfahrung sie befähigt zu tun – und was sie nicht tun müssen. Einfachheit, Automation und die Leichtigkeit des Musikeinkaufs und Systembackups.“ Und dann sagt Gartner im gleichen Atemzug, dass „wir das Äquivalent von Apple für das Enterprise-Datacenter benötigen“: flexibel, responsive und gut geölt, also völlig anders, als viele Enterprise-IT-Systeme heute sich darstellen.
Die meisten Rechenzentren sind derzeit noch mehr oder weniger fragmentierte Umgebungen, in denen proprietäre Applikationen isoliert auf spezieller Hardware laufen. Als „Museum der IT“ bezeichnete sie Pat Gelsiger, Vmwares Chief Executive, in seiner Keynote auf der VMworld Europe 2012. „Man müsse sämtliche Aspekte der Infrastruktur flexibel machen.“ Virtualisierungslösungen waren der erste Schritt in Richtung einer Vereinfachung dieser komplexen und wenig dynamischen Infrastruktur. Da die Abläufe im Rechenzentrum aber nach wie vor weitgehend durch die Abhängigkeit zwischen Software und spezieller Hardware eingeschränkt sind, steht auch die Entwicklung einfacherer und flexiblerer Lösungen noch immer an erster Stelle.
Zusätzlich oder besonders vorangetrieben wird diese Entwicklung durch die zunehmende Bedeutung des Cloud-Computings, sinkende Kosten der reinen Rechenleistung sowie neue Architekturen und Big-Data. Die erfolgreiche Auslagerung von Anwendungen und Teilen der Infrastruktur durch Nutzung von Public-Cloud-Diensten oder Software-as-a-Service (SaaS) erhöht den Druck auf die IT, auch interne Lösungen bereitzustellen, die identische oder möglichst bessere Ergebnisse erzielen: höhere Effizienz, Kostensenkungen, bessere SLAs. Mainframe-Leistung ist heute mit auf x86-Architektur basierenden Servern zu einem Bruchteil der Kosten verfügbar und Netzwerk- sowie Speicherressourcen lassen sich auf kostengünstiger Hardware bereitstellen. Das befreit von teuren, proprietären und monolithischen Systemen. Moderne Anwendungen sind zunehmend auf das Internet, soziale Netzwerke und mobile Geräte ausgelegt. Sie sind in der Regel so konzipiert, dass sie große Datenmengen mit schnelleren Geschwindigkeiten und geringeren Latenzzeiten verarbeiten, die herkömmliche Storage-Architekturen kaum bieten. Das ist ein weiterer Grund, warum Unternehmen nach neuen Lösungen für ihre Rechenzentrumsinfrastruktur suchen. Und das Software-Defined-Datacenter ist der nächste Schritt in der Evolution.
Populär wurde der Begriff Software-Defined-Datacenter (SDDC) eigentlich erst während der VMworld-Konferenz im vergangenen Jahr. Während der Storage & Networking World 2012 im Oktober vergangenen Jahres gehörte SDDC zu den heiß diskutierten Themen. Viel Lärm also um SDDC. Aber was genau ist eigentlich ein SDDC? Ein SDDC lässt sich beschreiben als ein Rechenzentrum, wo die Elemente der Infrastruktur, also das Networking, der Speicher, die Prozessoren und die Sicherheit, virtualisiert sind und als Service zur Verfügung gestellt werden. Software automatisiert vollständig die Bereitstellung und den Betrieb der gesamten Infrastruktur. Die Konfiguration der Hardware wird über Softwaresysteme auf höheren Ebenen erledigt. Dies erlaubt, neue Services sehr schnell ein- und auszuschalten und existierende Services je nach Bedarf wachsen und schrumpfen zu lassen.
Das klingt verdächtig nach privater Cloud. Ist SDDC also lediglich ein anderer Name dafür? Nein, aber eine Verwandtschaft ist nicht zu übersehen. Cloud-Computing ist ein Operationsmodell, das Ressourcen on-demand zur Verfügung stellt. Die Cloud nutzt zwar Techniken wie Virtualisierung und Converged-Infrastructure, aber primär geht es um eine Änderung der Lieferung und des Konsums von IT-Services. SDDC ist hingegen der nächste Schritt in der Evolution der darunter liegenden Technik. SDDC geht hinaus über traditionelle Abstraktion und liefert ein Toolkit, das Hybrid-Clouds mit einschließt. Auch SDDC kann erlauben, Server herunterzufahren oder mit geringerer Leistung zu arbeiten, was positive Auswirkungen auf den Energiekonsum hat.
Einige Experten sehen SDDC verglichen mit der Cloud als sicherere Option, denn SDDC bietet Organisationen ihre eigene private Cloud, was ihnen viel mehr Kontrolle über gehostete Daten gibt. In einem SDDC gespeicherte Daten befinden sich unmittelbar im Zugriff, es muss nicht erst ein Provider um Erlaubnis gefragt werden. Das ist viel flexibler und Organisationen können auf ihre Daten zugreifen, wann immer sie diese benötigen. Und den Grad der Sicherheit bestimmen die Organisationen oder Unternehmen selbst, statt sich auf die Sicherheit verlassen zu müssen, die der Cloud-Provider eingerichtet hat.
SDDC unterstützt neben neuen Services, die für die Cloud geschrieben sind, auch Legacy-Enterprise-Applikationen. Traditionelle IT-Applikationen können mit Cloud-Services im Amazon-Stil nicht viel anfangen und wohl kaum eine IT-Abteilung ist darauf vorbereitet, Legacy-Code neu zu schreiben, um ihn in Cloud-Umgebungen ausführen zu können. Legacy-Applikationen so wie sie sind in die Cloud zu schieben, wird danebengehen, denn sie sind nicht designed für Fehlertoleranz auf Applikationsebene, web-basierte Latenz oder die Nutzung verteilter Architekturen. Das SDDC ist ein Weg, die Vorteile der Cloud zu nutzen und gleichzeitig Legacy-Applikationen zu pflegen.