Anwendungen, die mit Hilfe moderner Architekturen entwickelt werden, sind grundsätzlich besser dazu in der Lage, die möglichen Kosteneinsparungen durch Cloud Computing zu realisieren. Cloud-native Architekturen konzentrieren sich auf die Disaggregation von Workloads auf Basis der Aufteilung von Geschäftsfunktionen in kleinere, diskretere Funktionen, die oft als Microservices bezeichnet werden. Sie können daher operativ besser die Größenvorteile der Cloud nutzen. Ihr Ressourcenverbrauch ist in der Größenordnung einer Cloud-nativen Anwendung im Vergleich zu einer traditionellen Applikation deutlich geringer. Denn nur die nachgefragten Geschäftsfunktionen werden skaliert – und nicht alle. So hat beispielsweise ein großer Einzelhändler kürzlich 200 in Silos laufende und redundante Anwendungen durch einen einzigen Microservice ersetzt, der dieselbe Geschäftsfunktion erfüllt. Dies hat die Komplexität verringert, die Zuverlässigkeit verbessert und Kosten gesenkt.
Bessere Portabilität
Darüber hinaus sind Cloud-native-Architekturen deutlich portabler zwischen verschiedenen Cloud-Instanzen. Dadurch können Unternehmen in Zukunft den Preisunterschied zwischen den diversen Cloud-Angeboten nutzen und somit Kosteneinsparungen erreichen. Investitionen in Anwendungsdienste und -architekturen, die in jeder Umgebung funktionieren können, gewährleisten dabei eine reibungslosere Migration von einer Umgebung zur nächsten.
Wenn Unternehmen einen konsistenten Satz von Anwendungsdiensten nutzen, die entkoppelt oder lose gekoppelt mit der zugrundeliegenden Infrastruktur sind, entfällt auch eine bedeutende Kostenquelle im Zusammenhang mit Cloud-Computing: Cloud-spezifische Tools, Dienste und Fähigkeiten. Denn damit müssen sie nicht mehr für jeden Cloud-Anbieter eigene Lösungen einsetzen und das dafür nötige Wissen vorhalten. Stattdessen verwenden sie einheitliche Dienste für verschiedene Apps und Cloud-Angebote.
Ein fiktives Beispiel
Die konkreten Vorteile zeigt das folgende theoretische Beispiel. Angenommen, ein Unternehmen hat eine Cloud-native Anwendung, deren Prototyp in AWS entwickelt wurde. Die Entwickler integrieren AWS-Anwendungsdienste XY und YZ. Die Applikation ist erfolgreich getestet. Also wird sie produktiv geschaltet und beginnt, Datenverkehr und Kunden live zu bedienen. Als der Funktionsumfang der Anwendung im Laufe der Zeit wächst, bemerkt das Unternehmen, dass ein Teil davon in Azure bereitgestellt werden muss. Dieselbe Anwendung erfordert dann immer noch XY und YZ, sodass Entwickler- und DevOps-Teams Zeit für die Bereitstellung, Konfiguration und Wartung dieser Azure-spezifischen Dienste aufwenden müssen.
Zu diesem Zeitpunkt hat das Unternehmen bereits die ersten beiden Phasen der Cloud-Nutzung miterlebt – die Migration in die Cloud für mehr Agilität und die Umstellung auf Multi-Cloud. Das Unternehmen besitzt damit auch das nötige Fachwissen und die Erfahrung rund um das Management von Cloud-nativen Anwendungen. Die Berechnungen zur Wirtschaftlichkeit sprechen nun dafür, die Anwendung entweder teilweise oder vollständig in das eigene Rechenzentrum zu migrieren. Damit befindet sich das Unternehmen in der dritten Phase der Cloud-Nutzung und übernimmt die Bereitstellung, Konfiguration und Wartung seiner On-Premises-Anwendungsdienste.
Auf diese dritte Phase werden wiederum die Cloud-Anbieter zweifellos mit neuen Services reagieren. Dies wird die Unternehmen dazu veranlassen, wieder in die Public Cloud umzusteigen und damit ein drittes Hoch der Cloud-Nutzung einzuleiten. Das bedeutet insgesamt: Letztendlich arbeitet fast jede Organisation in einem eher zufälligen hybriden Multi-Cloud-Modell. Manche Experten erwarten, dass der Trend der Cloud-Rückführung dieses Phänomen nur noch beschleunigen wird.