Eine wichtige Grundlage bei der Umstellung auf digitale Geschäftsmodelle bildet die Netzwerkinfrastruktur. Investitionen in Datacenter-Netzwerke sind jedoch teuer und müssen längerfristig geplant werden – eine falsche beziehungsweise schlechte Wahl lässt sich damit nur schwer korrigieren.
Für Rechenzentrumsverantwortliche steigt die Komplexität durch das Internet der Dinge, Edge Computing und Advanced Analytics enorm an. Die Nachfrage nach Echtzeit-Informationen und -Diensten treibt auch die Entwicklung komplexer und dynamischer Systeme voran. Das Ziel ist die Entwicklung eines hochverfügbaren, agilen und auf digitale Initiativen und Cloud-Infrastrukturen ausgerichteten Datacenter-Netzwerks. I&O-Leiter, die für die Netzwerkinfrastruktur verantwortlich sind, sollten sich dabei an den folgenden pragmatischen und spezifischen Schritten orientieren.
Bevor ein Unternehmen Investitionen in die Netzwerke des Datacenters tätigt, ist es wichtig, mit übergreifender Zusammenarbeit eventuellem Silodenken entgegenzuwirken. Dafür sollten sich die verantwortlichen Netzwerkteams mit den Anwendungs-, Architektur- und Cloud-Teams zusammensetzen und gemeinsam über eine für alle zufriedenstellende Lösung beraten. Außerdem sollten Unternehmen zunächst überprüfen und definieren, wo genau sie ihre Workloads platzieren möchten, um im nächsten Schritt festzuhalten, ob Anwendungen lokal, gehostet oder in Cloud-Rechenzentren installiert werden. Denn die Platzierung von Workloads hat enorme Auswirkungen darauf, welche Art von Netzwerklösung benötigt wird.
Der zunehmenden Einfachheit von „as-a-Service-Angeboten“ und softwaredefinierter Integration steht die Komplexität eines expandierenden IT-Kosmos gegenüber, der Millionen bis Milliarden von Datenpunkten und Gateways in einer Matrix von Verbindungen umfasst. Die Anwendung von Künstlicher Intelligenz (KI) und Machine Learning (ML) kann diese Komplexität mildern, erfordert es jedoch, dass die IT-Führungskräfte ihre Aufmerksamkeit und ihren Fokus auf andere Fragestellungen richten als bisher. Ein potenzielles Hindernis für ein intelligentes, selbstorganisierendes Rechenzentrum besteht darin, dass viele der heutigen Systeme für spezifische Workloads oder Geschäftseinheiten implementiert werden und nicht als Kollektiv breit aufgestellt und verwaltet werden. Dies schränkt das Potenzial der IT zur kontinuierlichen Optimierung der Ressourcen über verschiedene Workloads hinweg stark ein. IT-Führungskräfte müssen in größerem Umfang denken und Prinzipien selbstorganisierender, intelligenter Systeme in Rechenzentren, Edge und Clouds der Zukunft übernehmen. Das Ziel sollte es sein, Plattformen und Dienste zu entwickeln, die das Systemverhalten überwachen und analysieren, was zu kontinuierlich optimierten Ergebnissen mit vordefinierten Zielen und Service Levels führt.