Aus diesem Grund ist es wichtig zu wissen, was ein Managed Kubernetes können sollte.
Dazu gehören unter anderem die folgende Punkte:
Schnelle Installation und intuitive Bedienung: Besonders am Anfang ist es wichtig, sich nicht bis ins kleinste Detail mit administrativen Tätigkeiten beschäftigen zu müssen. Deshalb sollte man bei der gewünschten Lösung mit wenigen Klicks eine erste Container-Infrastruktur erstellen können. Eine klickbasierte und intuitiv zu bedienende Oberfläche erweist sich im Laufe des Projektes als hilfreich, allein schon, um Zeit zu sparen.
IT-Teams können Anpassungen schnell und intuitiver vornehmen, zudem bleiben die variierenden Kosten besser im Blick. Zudem verfügt Kubernetes über keine ausgeprägten Logging- und Monitoring-Features. Ein Bedien-Interface der Kubernetes-Plattform erspart den Entwicklerteams Zeit, die sie an anderen Stellen besser einsetzen können.
Möglichkeiten zur Vorkonfiguration: Kubernetes selbst bietet zahlreiche Möglichkeiten zur Vorkonfiguration. Ein Managed Kubernetes sollte den Unternehmen daher ermöglichen, jedes Detail selbst zu konfigurieren sowie passende Voreinstellungen bieten. Häufig gewählte Optionen wie etwa Load Balancer, Persistent Storage und Scheduler können sinnvoll voreingestellt sein. Nach Bedarf und gewachsener Erfahrung ist es zu einem späteren Zeitpunkt möglich, diese zu ändern.
Entwicklung in Richtung Serverless einplanen: Bei Serverless Computing handelt es sich um eine zugespitzte Ausprägung des Cloud Computing im Bereich der Container-basierten Micro-Services. Hierbei erfolgt eine Abstraktion der Infrastruktur für die Nutzerschaft. Entwickelnde deployen ihre Anwendungen, ohne mit den Plattform-APIs kommunizieren oder Ressourcen zuweisen zu müssen. Serverless Frameworks sind im Moment zwar erst spärlich verbreitet, aber die Entwicklung ist bereits im Gange. So basiert beispielsweise das Open-Source-Projekt Knative auf Kubernetes und dem Service-Mesh Istio und stellt Funktionen zur Verfügung, die das Deployment von Serverless Apps erleichtern sollen. Wer solche Szenarien mit einkalkulieren will, sollte eine Kubernetes-Plattform wählen, die sich mit Serverless Frameworks integrieren lässt.
Provider-Rechenzentren in Deutschland oder Europa: Governance- und Datenschutzvorgaben lassen manches Unternehmen bei der Einführung einer Kubernetes-Lösung aus der Cloud zögern und verhindern in vielen Fällen die Nutzung von Cloud-Services. Insbesondere global agierende Hyperscaler stehen oft in der Kritik. Unternehmen, die hier auf Nummer sicher gehen möchte, finden sowohl auf dem deutschen als auch auf dem europäischen Markt Alternativen. Rechenzentren in Deutschland und Europa garantieren die Einhaltung der strengeren hiesigen Datenschutzvorgaben.
Einbindung von Service-Meshs: Container-basierte Micro-Service-Strukturen gestalten sich schnell als komplex. Anwendungen können aus mehreren hundert Services bestehen. Es ist somit schwierig, den Überblick über die Interaktionen zwischen einzelnen Komponenten zu behalten. Viele Entwicklerteams nutzen deshalb einen Service-Mesh, der die Kommunikation in eine dedizierte Schicht auslagert. Dies verringert die Komplexität und die Micro-Services verschlanken sich. Es ist daher sinnvoll, wenn eine Kubernetes-Plattform die nahtlose Integration von Service-Meshes unterstützt.
Integration von IAM: Kubernetes speichert Benutzerdaten in einer separaten Datenbank, ein natives Identity- und Access-Management ist nicht enthalten. Eine Kubernetes-Plattform ergänzt Kubernetes daher um entsprechende Funktionen oder unterstützt die Nutzung eines Identity-Tools, um die Sicherheit der Daten zu erhöhen.
Fazit: Höhere Effizienz duch Managed Kubernetes
Der Einsatz von Kubernetes erfordert einiges an Wissen, damit es alle seine Vorteile ausspielen kann. Cloud-Services können an dieser Stelle helfen, die Komplexität für Unternehmen zu verringern. Deshalb sollten, wenn keine regulativen Gründe dagegensprechen, Entwicklerteams auf sie zurückgreifen – insbesondere, wenn der Hoster Rechenzentren in Europa oder Deutschland betreibt.
Managed-Kubernetes-Lösungen vereinfachen der Nutzerschaft die Arbeit durch vorkonfigurierte Basics, wie Cluster-Ausstattung, Storage und Load Balancer. Die Wahl einer passenden Plattform indes ist nicht einfach: Das Angebot auf dem Markt ist umfangreich und divers. Darüber hinaus unterscheiden sich die anfallenden Kosten erheblich. Lokale Cloud-Anbieter können im Vergleich mit den Hyperscalern in vielen Fällen den besseren Support und die flexibleren Lösungen bieten.
Henrik Hasenkamp ist Gründer und CEO von Gridscale.