„Die Wolke“ ist in der IT deutscher Unternehmen angekommen. Die Verantwortung für die Sicherheit der Daten sollten diese jedoch nicht einfach in die Hände von Cloud-Providern legen. Datenverschlüsselung kommt in heterogenen IT-Landschaften damit besondere Bedeutung zu.
Cloud Computing ist Mainstream in der IT von Unternehmen geworden, auch in Deutschland. Eine aktuelle Studie des Branchenverbands Bitkom (Cloud Monitor 2018) kommt zu dem Ergebnis, dass die Mehrheit der hiesigen Unternehmen „die Wolke“ in irgendeiner Form nutzen: „Acht von zehn Unternehmen (83 Prozent) mit mehr als 2.000 Mitarbeitern setzen mittlerweile auf Cloud-Dienste. In Unternehmen mit 100 bis 1.999 Mitarbeitern liegt die Cloud-Nutzung bei 65 Prozent, ähnlich hoch wie bei kleineren Unternehmen mit 20 bis 99 Mitarbeitern (66 Prozent).“ Der Business-Nutzen von Dateispeicherung in der Cloud oder Software-as-a-Service liegt auf der Hand: Niedrigere IT-Kosten bei höherer Skalierbarkeit und größerer Zuverlässigkeit im Vergleich zu Ressourcen im eigenen Rechenzentrum.
Dennoch bringt die Cloud Herausforderungen mit sich. Selbst hartgesottene Cloud-Verfechter haben Bedenken hinsichtlich „Was-wäre-wenn“-Szenarien, über die sie keine oder nur wenig Kontrolle hätten, beispielsweise einen Dienstausfall oder einen Hackerangriff. An dieser Stelle beruhigt es wenig zu wissen, dass bei Cloud-Providern mehrere Redundanz-Ebenen und Backups zum Standard gehören. Einige Anbieter beschäftigen einen Stab an professionellen Service- und Sicherheitsexperten, um den sie IT-Leiter in Unternehmen beneiden.
Nach den Anwendungen wandert die Infrastruktur in die Cloud
Cloud-Computing-Anbieter stehen in vielerlei Hinsicht gut da, manchmal besser als manche Inhouse-IT. Die Zuverlässigkeit von Cloud-Providern lässt sich deutlich besser einstufen als so manche interne Infrastruktur. Gleichzeitig wird die Cloud schneller und zuverlässiger, etwa weil sich die Leistung von Glasfasernetzen ständig verbessert. Latenzzeiten nehmen ab, obwohl immer mehr bandbreitenhungriger Traffic die Datenautobahn passiert. Dadurch fühlen sich Rechenzentren näher an als je zuvor. In der Folge wandern immer mehr Infrastrukturbestandteile in die Cloud. Unternehmen nutzen Infrastructure-as-a-Service-Anbieter verstärkt für ihre IT-Anforderungen.
Ein prominentes Beispiel hierfür ist das Serverlose Computing. Es baut auf der Methodik der DevOps auf, die Softwareentwicklung und traditionelle IT-Teams kombiniert, um den Entwicklungszyklus von Systemen zu verkürzen. Das serverlose Computing geht noch einen Schritt weiter. Bei diesem Cloud-Computing-Modell fungiert die Cloud als Server, sodass sich Entwicklungsteams ganz auf den Code konzentrieren können, den sie ausführen möchten, und nicht auf operative Komplexitäten.
Außerdem gibt es neue Preismodelle, bei denen die tatsächlichen Ressourcen, die von einer einzelnen Anwendung oder sogar ihren Bibliotheksfunktionen genutzt werden, die Kosten bestimmen – nicht die vorab erworbene Kapazität.