IaaS (Infrastructure as a Service) stellt eine der grundlegenden Varianten des Cloud Computings dar. Doch bei Unternehmen bestehen Bedenken hinsichtlich Cloud-Sicherheit, Service-Qualität und Verfügbarkeit. Welche Anforderungen muss ein IaaS-Provider erfüllen, damit Unternehmen seine Services für geschäftskritische Zwecke nutzen?
Public Cloud, Private Cloud, Hybrid Cloud oder Community Cloud: Es gibt eine Fülle von Cloud-Definitionen und -Angeboten, doch für den Business-Nutzer erschließen sich die Unterschiede nicht unmittelbar. Laut Wikipedia steht bei Private Clouds im Vordergrund, „“dass sich sowohl Anbieter als auch Nutzer im selben Unternehmen befinden““. Eine Public Cloud hingegen ist öffentlich, kann also „“von beliebigen Personen und Unternehmen genutzt werden““ und ist „“nicht mehr auf interne Anwendungen einer einzelnen Institution/eines Unternehmens beschränkt““. Bei einer Hybrid Cloud nutzt ein Unternehmen zusätzliche zur eigenen Private Cloud eine Public Cloud für Lastspitzen oder als Failover-Strategie. Eine Community Cloud wiederum ist ein Zusammenschluss mehrerer Private Clouds von Unternehmen oder Organisationen, die deren Mitarbeitern offenstehen, für andere aber nicht zugänglich sind.
Alle Varianten haben ihre Berechtigung, es kommt aber immer auf den Einsatzzweck und die Unternehmensgröße an. Für viele kleine und mittelständische Unternehmen kommt die Public Cloud nur bedingt in Frage: Anwender zögern, weil sie weder Einfluss auf die Cloud-Infrastruktur nehmen können, noch ausreichende SLAs (Service Level Agreements) mit Verfügbarkeitsgarantien erhalten. In Private Clouds hingegen haben Unternehmen die Chance zur Einflussnahme auf die Infrastruktur und können SLAs vertraglich vereinbaren – verbunden mit allen Vorteilen der Cloud.
Neben den Kostenaspekten liegen diese Vorzüge der Cloud in der Skalierbarkeit und Flexibilität. Kostengünstiger wird es, weil der Cloud-Anbieter die Kosten für die Infrastruktur aufteilen und dadurch anders kalkulieren kann. Die Unternehmen wiederum zahlen nur für die gerade benötigte IT-Leistung, Kosten für eigene Hardware und Software entfallen. Rechenkapazitäten lassen sich flexibel sowie bedarfsgerecht hinzufügen und neue IT-Services stehen schnell zur Verfügung.
Die am meisten diskutierten Kategorien bei den Cloud-Service-Modellen zählen neben der in diesem Artikel diskutierten Infrastructure as a Service (IaaS) auch Platform as a Service (PaaS) und Software as a Service (SaaS). Im Kontext von PaaS bieten Dienstleister Entwicklungs- und Ausführungsumgebungen als Service an. Diese Frameworks bilden die Basis für den Betrieb von Anwendungen und die Entwicklung eigener Geschäftsapplikationen in der und für die Cloud. SaaS ermöglicht es beispielsweise, eine CRM-Software als standardisierten Service über das Internet zu mieten und nach Bedarf zu nutzen.
IaaS erweitert das bewährte dedizierte Hosting von IT-Infrastrukturen im Rahmen von Outsourcing oder Managed Services um die bedarfsgerechte Bereitstellung virtueller Infrastrukturkomponenten als Dienstleistung. In der Infrastruktur-Cloud stellt ein Dienstleister dem Unternehmensanwender diese Komponenten in einer virtuellen Umgebung zur Verfügung: Server, Rechenleistung, Netz- und Speicherkapazität, Archivierungs- und Backup-Systeme, Kommunikationsgeräte und andere Elemente der Rechenzentrums und Netzinfrastruktur. Unternehmen beziehen diese virtuellen Dienste über breitbandige Netze, meist das Internet.
Wer über die Einführung von Cloud-Services nachdenkt, wird sich beim Ausarbeiten des Anforderungskatalogs an den Anwendungen orientieren, die er betreiben möchte. Dem vorangehen muss eine Bestandsaufnahme der Anwendungen, die im Einsatz sind. Bei welchen bestehenden Anwendungen ergibt es Sinn, diese durch Cloud-Services zu ersetzen, welche neuen geplanten Services lassen sich mit Cloud-Services verwirklichen? Wie lässt sich die bestehende Infrastruktur durch Infrastruktur-Services ergänzen?
Komplexe Datenbank-Server stellen beispielsweise höchste Anforderungen an die IT und benötigen dedizierten Support. Managed Services von einem Managed-Hosting-Provider leisten dies sehr gut. Im Service-Modell des klassischen gemanagten Hostings stellen eine bestimmte Anzahl an Servern und Infrastrukturkomponenten sowie Service-Mitarbeiter die über SLAs definierte Verfügbarkeit der unternehmenskritischen Anwendung sicher.
Denkbar ist aber auch ein „“Dynamic Cloud““-Modell. Diese Mischform aus klassischem Hosting und Cloud-Services verbindet ein dediziertes System mit Cloud-Diensten. Sie bietet sich überall dort an, wo sich standardisierte Plattform-Services mit unternehmenskritischen Systemen kombinieren lassen, die der Pflege und Betreuung durch IT-Mitarbeiter bedürfen.
Auf den ersten Blick mag es manchem Unternehmen praktischer erscheinen, Cloud-Services selbst zu betreiben. Der Aufwand für das Aufsetzen der Plattform ist überschaubar. Für die eigene Cloud mietet es eine oder zwei Internetleitungen bei einem Carrier an. Die Kosten für die Implementierung bleiben im Rahmen und liegen beim Eigenbau der Cloud-Services vielleicht sogar niedriger als in Szenarien, in denen sie ein Dienstleister bereitstellt. Aber genau hier beginnt das Problem, denn damit die Cloud performant arbeiten kann, müssen die Leitungen eine sehr hohe Kapazität haben. Sie dürfen nicht nur ans Internet angekoppelt sein, weil dann die Leitungsqualität nicht gewährleistet ist. Die Leitungen müssen sich, um diese zentrale Anforderung zu erfüllen, unter der Kontrolle des Carriers befinden.
Das Wesen der Cloud-Services ist es, sich auch auf räumlich verteilten Servern befinden zu können. Das Live-Arbeiten mit verteilten Anwendungen funktioniert aber nur, wenn die Entfernung zwischen zwei Rechenzentren nicht größer als 30 Kilometer ist. Denn auch wenn Lichtwellenleiter die Rechenzentren verbinden, benötigt das Licht eine gewisse Zeit durchs Netz. Eine Datenbank aber, die innerhalb eines bestimmten Zeitintervalls keine Antwort auf eine Anfrage bekommt, reagiert nicht mehr oder gibt eine Fehlermeldung aus.
Mit passender, über DWDM-Systeme (Dense Wavelength Division Multiplexing) verbundene Infrastruktur und länderübergreifendem Support kann ein Cloud-Hosting-Anbieter die Performance der Services sicherstellen. Carrier müssen über eine kapazitätsstarke und redundante Backbone-Infrastruktur verfügen, um die Daten sicher über das eigene Netz zu transportieren. Das gilt, um einen Großteil der Unternehmen abzudecken, zunächst für Europa: Bei entsprechender Bandbreite werden die Daten vernünftig transportiert und kommen schnell an. Werden diese Voraussetzungen erfüllt, sind Ausfälle aufgrund einer zu schwachen Verbindungsqualität der Leitungen zwischen den Rechenzentren nicht zu erwarten. Die Qualität entspricht dann der klassischer TK-Verbindungen.
Daneben kommt es auf die Rechenzentren selbst an, die eine hochredundante Infrastruktur aufweisen müssen, damit Server dort mit geringstmöglichen Ausfallzeiten arbeiten können. Das bedeutet für jedes RZ, dass alle für den Betrieb nötigen Anlagen redundant vorhanden sein müssen: alle aktiven Geräte, die unterbrechungsfreie Stromversorgung, Netzteile, Klimatisierung, aber auch die Verkabelung. Die Verfügbarkeit sollte so hoch sein wie wirtschaftlich vertretbar. Folgt man den maßgeblichen Normen, dann sind zwei parallele RZ-Strukturen nach Tier III der vier Kategorien der TIA-942-Norm das Maß der Dinge. Das entspricht einer Verfügbarkeit von 99,982 Prozent oder einer jährlichen IT-Downtime von 1,6 Stunden bei einem Rechenzentrum.
Der Hosting-Anbieter sollte dafür Sorge tragen, dass die Daten im IaaS-Modell geschützt sind. Die Sicherheitsstandards im RZ gewährleisten dies grundsätzlich. So sind Hochsicherheitsrechenzentren mit dem IT-Grundschutzzertifikat des BSI zertifiziert und weisen oft auch das SAS70-Audit-Level des AICPA (American Institute of Certified Public Accountants) nach. Letzeres bestätigt die Wirksamkeit interner Kontrollsysteme und damit die interne Sicherung der Kundendaten. Software, Hardware und Netzwerk müssen stets die neuesten Sicherheits-Updates und Komponenten enthalten. In Teilbereichen kommt zudem automatisiertes regelbasiertes Sicherheits-Management zum Einsatz, um Sicherheitsmechanismen wie Firewall, Intrusion Prevention/Intrusion Detection sowie DDoS-Schutz (Distributed Denial of Service) zentral im Netzwerk durchzusetzen. Ein IaaS-Anbieter muss also technisch gesehen ein hohes Schutzniveau bieten können, verbunden mit einer Aufteilung der dadurch verursachten Kosten auf mehrere Kunden.
Neben den Rechenkapazitäten werden im IaaS-Modell auch Speicherkapazitäten in Anspruch genommen. Anbieter müssen daher für die angemessene Speicherbereitstellung und Sicherheit in mehreren Rechenzentren sorgen, wobei professionelle Backup-Systeme zum Einsatz kommen. Damit der Provider Daten bei Bedarf schnell und sicher wiederherstellen kann, sollte das Backup- und Recovery-Center maximal 25 bis 30 Kilometer vom primären RZ entfernt sein. Die Entfernungsangabe bezieht sich dabei nicht auf die Luftlinie, sondern auf die Länge der optischen Faserverbindungen. Dies gewährleistet sehr kurze Paketlaufzeiten und damit synchrone Spiegelungen der Datenbestände.
In einer Public Cloud ist die rechtliche Situation komplexer als in einer Private Cloud. Beim klassischen dedizierten Hosting kennt der Unternehmenskunde den Aufenthaltsort seiner Daten im RZ. In Cloud-Umgebungen ist dies nicht zwingend der Fall. Unternehmen, die bedeutende Teile ihrer Daten in einer Cloud betreiben, wollen aber wissen, auf welchen Servern sich diese physisch befinden. Hier kommt es darauf an, die für sie „“richtige““ Cloud zu wählen.
IaaS verspricht eine bedarfsgerechte Bereitstellung von IT-Infrastrukturen in einer virtualisierten Umgebung. Der geschäftliche Nutzen für Unternehmenskunden liegt in der flexiblen und schnellen Provisionierung der Dienste und den geringeren, am realen Verbrauch orientierten Kosten. Damit diese Services auf breitere Akzeptanz stoßen, müssen Unternehmenskunden Vertrauen in deren Sicherheit und Verfügbarkeit fassen können. Grundvoraussetzung dafür ist, dass die Services in einer hochverfügbaren Carrier-Grade-Infrastruktur mit Hochsicherheitsrechenzentren angeboten werden. Betreiber solcher Rechenzentren verfügen häufig über langjährige Erfahrung mit Hosting und Managed Services, die sie in die neue Welt der Cloud-Services mitbringen.