Vor allem dann, wenn es sich nicht nur um wenige, sondern um hunderttausende oder noch mehr Events handelt, kann die Container-Technologie ihre Vorteile ausspielen: Die Abarbeitung des Microservice skaliert automatisch und deutlich schneller als ohne Container. Schon heutzutage finden solche Szenarien vor allem dort Anwendung, wo etwa ständig Daten ausgetauscht oder abgeglichen werden müssen – also dort, wo kleinere Services immer und immer wieder abzuarbeiten sind. Typisch dafür sind ETL-Prozesse (Extract, Transform, Load), bei denen zumeist unstrukturierte Daten aus verschiedenen Quellen in einer zentralen Datenbank zusammengeführt werden. Für die Entwicklungen im IoT-Bereich könnte Serverless Computing äußerst interessant werden. Gerade Sensoren, die in IoT-Szenarien in großen Mengen zum Einsatz kommen, sind zumeist selbst zu schwach, um ihre Daten zu verarbeiten. Deshalb geben sie diese ab – in diesem Fall an eine Funktion. Diese nimmt die Daten entgegen und kümmert sich um die Datenaggregation oder stößt die Verarbeitung an. Auch kommt der Vorteil der automatischen Skalierung zum Tragen: Wenn beispielsweise hunderttausend Sensoren gleichzeitig, aber geografisch verteilt Daten liefern, können diese flexibel mehreren Rechenzentren zugeteilt werden. So könnte die Funktion etwa angewiesen werden, stets das örtlich nächstgelegene oder das preisgünstigste Datacenter zu nutzen.
Vor- und Nachteile
Über die Vorteile der Cloud hinaus – von Skalierbarkeit nach Bedarf bis hin zu Pay-What-You-Use-Modellen – kann Serverless Computing Unternehmen dem Ziel näherbringen, sich hundertprozentig auf die Entwicklung von Anwendungen konzentrieren zu können. Auch wenn die gängigen Cloud-Angebote des Marktes den IT-Verantwortlichen bereits viel Administrationsaufwand abnehmen, muss dennoch einige Zeit in das Aufsetzen und Betreiben der Infrastruktur investiert werden. Das Serverless-Konzept macht das Entwickeln von Anwendungen beziehungsweise Microservices gänzlich plattformunabhängig. Unternehmen müssen sich also weder um das passende Backend noch um gegebenenfalls notwendige Skalierungen Gedanken machen.
Diese Unabhängigkeit ist aber nicht für jedes Unternehmen die geeignete Lösung. Individuelle Anpassungen etwa an der Datenbank sind dann nicht oder nur schwer möglich. Wer bereits gängigen Cloud-Konzepten skeptisch gegenübersteht, weil das eigene Geschäftsmodell volle Kontrolle über die Infrastruktur verlangt, wird auch Serverless wenig attraktiv finden. Und tatsächlich besteht die Gefahr eines Vendor-Lockin, da derzeit noch Standards fehlen, die die Portierbarkeit zwischen den verschiedenen Plattformen sicherstellen.
Unternehmen müssen sich immer weniger mit Infrastruktur befassen
Doch dass Serverless künftig eine wachsende Rolle spielen wird, zeigen einige Initiativen großer Marktplayer. Ein von Google und Pivotal initiiertes Open-Source-Projekt beispielsweise will die verschiedenen Serverless-Anforderungen standardisieren und „Enterprise-Ready“ machen.
Was mit Outsourcing seinen Anfang nahm, sich mit der Cloud maßgeblich weiterentwickelte, kommt nun mit Serverless einen nächsten Schritt voran: Unternehmen müssen sich immer weniger mit Infrastruktur-Belangen befassen. Spezialisierte Provider erbringen dies als Dienstleistung in höherer Qualität. Dimensionierung, Konfiguration, Implementierung und Betrieb können Unternehmen komplett als Service einkaufen. Wenn sich auch heute noch keine großen, komplexen Anwendungsumgebungen Serverless abbilden lassen, kann das Konzept aber schon bald bestehende hybride Cloud-Strukturen ergänzen.
Jürgen Hoffmann ist Senior Manager Platform Architecture bei Pivotal