Es ist vor diesem Hintergrund in vielen Fällen unerlässlich, Infrastruktur umzubauen und Prozesse zur Code- und Produktentwicklung zu erneuern, um mit dem neuen Grad an Konnektivität sowie der Geschwindigkeit von Markteinführungen umgehen zu können. Eine Möglichkeit dafür besteht darin, die operativen Abläufe bis auf die Code-Ebene herunterzubrechen und ein Konzept umzusetzen, das unter der Bezeichnung Infrastructure-as-Code bekannt ist.
Im Kern stellt Infrastructure-as-Code einen Wandel von manuellen Prozessen hin zu automatisierten Abläufen dar. Am wichtigsten jedoch ist, dass das Konzept eine Reproduzierbarkeit bietet, die die Qualität verbessern und die Effizienz von Infrastrukturen erhöhen kann. Unternehmen, die mit diesem neuen Konzept zum Aufbau von IT-Architekturen arbeiten, können schnell neue Server aufsetzen, Test- sowie Entwicklungszyklen automatisieren und auf Feedback von Partnern und Kunden reagieren.
Container stehen noch am Anfang
Es wäre im Moment verfrüht, das Ende der klassischen Hypervisor-basierten Virtualisierung zu erklären. Diese hat nach wie vor einige Vorteile zu bieten. Hierzu gehört die hochverfügbare Infrastruktur, die wiederum Container in dieser Form noch nicht nachbilden. Container selbst benutzen virtualisierte Server als hochverfügbare Laufzeitumgebungen. Damit ergänzen sich beide Technologien hervorragend. Zudem existieren Applikationen und Dienste, die sich noch nicht für Container-Virtualisierung eignen.
Container spielen ihre Stärken bei Microservices aus, während monolithisch entwickelte, komplexe Applikationen aufgesetzt auf einer VM besser aufgehoben sind. Auch Server mit Datenpersistenz, dazu gehören Datenbanken, Sessions und Business Logic, werden besser als klassische virtuelle Server realisiert. Denn im Normalfall gehen mit dem Lebensende eines Containers auch die integrierten Daten verloren.
Ein weiterer nennenswerter Faktor pro klassische Virtualisierung ist die Sicherheit. Denn sie bietet einen hohen Grad an Isolierung der einzelnen virtuellen Maschinen. Alle Hardwareressourcen werden getrennt virtualisiert und auch unabhängig zur Verfügung gestellt. Aus diesem Grund kann Malware oder ein Angriff im Normalfall auch nur eine einzelne VM kompromittieren. Die Sicherheit von Container-Umgebungen ist geringer ausgeprägt, weil Container einen gemeinsamen Betriebssystem-Kernel miteinander teilen und klassisch mit hohen Zugriffsrechten ausgestattet sind. Daher bringen Angriffe und Malware-Vorfälle ein höheres Sicherheitsrisiko mit sich, den darunterliegenden Container-Host sowie auch andere Container in Mitleidenschaft zu ziehen.
Die Anwendung entscheidet
Container sind aktuell vor allem als gute Ergänzung zur bekannten Hypervisor-basierten Virtualisierungsumgebung zu sehen. Beispielsweise für Cloud-Provider ist es wichtig, sich intensiv mit den Potenzialen und Anwendungsoptionen von Containern zu beschäftigen. Auf lange Sicht gesehen wird es jedoch eine teilweise Postvirtualisierung geben. Diese geht aber vom Cloud-Einsatz selbst aus, denn in absehbarer Zeit werden Unternehmen keine eigenen Server mehr besitzen. Sie werden sich komplette Geschäftsprozesse aus der Cloud heraus zusammenstellen. Allein die Cloud-Provider verwenden in diesem Szenario noch Server-Lösungen.
Lars Göbel, Leiter Strategie & Innovation bei DARZ