Public Cloud

Entscheidungen über Entscheidungen

4. Juni 2018, 15:12 Uhr | Autor: Valentin Rothenberg / Redaktion: Sabine Narloch

Fortsetzung des Artikels von Teil 1

Kosten sparen ist gar nicht so einfach

Häufig werden Kosteneinsparungen als ein wichtiger Faktor für die Evaluierung von Public Clouds genannt. Eine konkrete Berechnung der voraussichtlichen Kosten zum Betrieb der eigenen IT-Infrastruktur bei AWS, Google Cloud oder Microsoft Azure ist aber eine diffizile Aufgabe. Jeder Anbieter hat ein eigenes, komplexes Preismodell, das Staffelungen und viele unterschiedliche Positionen beinhaltet. So unterscheiden etwa Microsoft und Google bei den Datentransfer-Preisen nach Ziel-Ländern. Bei Amazon werden Load Balancer nicht nur nach Zeit, sondern auch nach verbrauchten “Load Balancer Capacity Units” berechnet. Kostenvorteile ergeben sich besonders dort, wo Server nur temporär gestartet werden um Lastspitzen abzufangen. Hier profitiert man von der stunden- (Azure), minuten- (Google) oder sogar sekundengenauen Abrechnung (AWS). Bei Umgebungen mit 24/7-Betrieb und geringer Nutzung der Skalierungsfunktionen fallen die Kostenvorteile in aller Regel weitaus geringer aus.

Die Personalkosten für das Management der Server und der sonstigen Infrastruktur ändern sich in den meisten Fällen nur geringfügig, da die zeitlichen Aufwände etwa gleichbleiben. Auch in der Cloud werden Administratoren benötigt, welche die Infrastruktur kennen, überwachen, warten und weiterentwickeln. Bei einem Wechsel von einem Managed-Hosting-Anbieter zu einer Public Cloud geht zudem die Verantwortung für weitere Bereiche auf den Kunden über. Diese Punkte werden bei der initialen Kostenkalkulation für den Cloud-Betrieb oft vergessen. Durch die Umstellung von Applikationen auf einen Cloud-Einsatz und die Etablierung eines hohen Automatisierungsgrads lassen sich bei großen Umgebungen jedoch langfristig Kosten sparen – vor allem dort, wo Server nicht einzeln gepflegt werden müssen, sondern automatisiert mit neuer Konfiguration erstellt werden können.

SLAs als entscheidender Faktor?
Neben den Kosten sollten Unternehmen zudem die Service Level Agreements (SLAs) betrachten. Denn was sind eingesparte Budgets wert, wenn die Cloud und damit die eigene Infrastruktur nicht funktioniert? Vor allem, wenn bei keinem der drei Anbieter deutsches Recht gilt. AWS nutzt das Recht des US-amerikanischen Bundesstaats Washington, Google Cloud beruft sich auf Kalifornien und Microsoft Azure agiert auf Basis von irischem (aber damit immerhin europäischem) Recht.
Branchenüblich weisen alle Anbieter für Cloud-Server SLAs mit Verfügbarkeitszusagen aus. Hier unterscheidet sich speziell die Erstattungssumme für ausgefallene Services. Microsoft liegt mit einer Erstattung von bis zu 100 Prozent deutlich vor der branchenüblichen Erstattung von maximal 50 Prozent, wie sie Google anbietet.

Mögliche Erstattungsansprüche finden allerdings nur Anwendung, wenn sehr spezielle Rahmenbedingungen eingehalten und dokumentiert werden. Die SLAs sind deutlich zugunsten der Anbieter verfasst. Bei betriebskritischen Anwendungen, deren Ausfall einen größeren Einfluss auf das tägliche Business hat, sind die Risiken daher kritisch zu prüfen. Für Großkunden bieten die Anbieter zum Teil die Verhandlung individueller SLAs. Kunden mit kleinen Umgebungen bleiben hingegen auf der Strecke.

Generell gehen das Public-Cloud-Konzept der drei Anbieter und die günstigen Preise mit einer Verlagerung der Verantwortung einher: Der Kunde trägt das Risiko für Ausfälle mit, indem er selbst eine Infrastruktur schaffen muss, die potenziellen Ausfällen von Teilen der Cloud standhält. Ein Konzept für eine verteilte Infrastruktur ist in der Public-Cloud-Welt daher noch mehr wert als klassische SLAs.

Wie sieht es mit der Verfügbarkeit aus?
Aufgrund der Flexibilität und Kombinationsmöglichkeiten von Standorten und Cloud-Anbietern kann von allen drei Anbietern eine sehr hohe Verfügbarkeit erreicht werden. Websites wie Cloudharmony von Gartner bieten die Möglichkeit, die Verfügbarkeiten der letzten Wochen oder Monate zu vergleichen. Studiert man die Statistiken der vergangenen Jahre, so lässt sich feststellen, dass alle Clouds relativ verlässliche Ergebnisse liefern, kurze Downtimes einzelner Standorte jedoch dazugehören.

Die Verfügbarkeit entsteht jedoch in der Hauptsache durch ein durchdachtes Konzept für die Gesamtinfrastruktur, das in Kundenhand liegt und final auch eine Budgetfrage ist. Beim redundanten Betrieb der eigenen Infrastruktur mit automatischem Failover ist im Normalfall mit branchenüblichen Verfügbarkeiten über achtundneunzig Prozent pro Monat zu rechnen. Bei einem Ausfall bedarf es eigener Administratoren, welche die in der Cloud betriebenen Systeme 24/7 überwachen und im Fehlerfall sofort reagieren. Die Cloud-Provider werden bei einem Ausfall schnell aktiv, reparieren jedoch nur die eigene Cloud-Infrastruktur. Ob dann auch alle Kundensysteme wieder zuverlässig laufen, steht auf einem anderen Blatt.

Anbieter zum Thema

zu Matchmaker+

  1. Entscheidungen über Entscheidungen
  2. Kosten sparen ist gar nicht so einfach
  3. Risiko Vendor-Lock-in

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu connect professional

Weitere Artikel zu Public Cloud

Matchmaker+