Komplexe IT-Umgebungen bergen immer die Gefahr, unübersichtlich zu werden. Das bietet Chancen für Schatten-IT und Sicherheitslücken. Daher brauchen Unternehmen Transparenz – ob im Rechenzentrum oder in einer Multi-Cloud-Umgebung.
Früher liefen Anwendungen On-Premises, wodurch IT-Teams schnell Probleme feststellen und sämtliche Systeme prüfen konnten, um die Ursache zu ermitteln und zu beheben. Mittlerweile befinden sich die Applikationen aber nicht nur im eigenen Rechenzentrum, sondern auch in mehreren Private und Public Clouds. Laut Flexera besitzen bereits 92 Prozent der Unternehmen eine Multi-Cloud-Strategie, aber nur 42 Prozent nutzen Multi-Cloud-Management-Tools. Für Performance-Monitoring und -Management kommen meist unterschiedliche Lösungen für die jeweiligen Infrastrukturen zum Einsatz.
Entsprechend sind in der Regel verschiedene Teams für die Observability-Tools zuständig. Ist keine übergreifende Zusammenarbeit vorhanden, kann es zu abgeschlossenen Silos führen, die keine umfassende Transparenz ermöglichen. Die Folgen: Performance-Probleme werden nur reaktiv und zu spät erkannt. Die Ursachenforschung untersucht nur das eigene Silo, sodass übergreifende Root Causes unberücksichtigt bleiben. Zudem steigen die Security-Gefahren, da mit der Zeit immer mehr Schwachstellen zwischen den Systemen entstehen.
Daher ist ein umfassender Sicherheitsansatz nötig. Denn gemäß der „Cisco Security Outcomes“-Studie 2022 entdecken Unternehmen mit umfassenden Zero-Trust- oder Secure Access Service Edge (SASE)-Architekturen Angriffe doppelt so schnell als solche mit Silo-Strukturen. SASE beschreibt ein Modell, das Security als Netzwerk-Funktionalität begreift und als Cloud-Service bereitstellt. Dies ist auch im Zuge von Hybrid Work wichtig. Denn Mitarbeitende befinden sich nicht mehr nur im Enterprise Network, sondern greifen auch aus dem Homeoffice und von unterwegs auf berufliche Anwendungen und Daten zu.
Das bedeutet: Unternehmen benötigen einen siloübergreifenden Überblick zu Sicherheit, Latenzzeit und Performance, um einen reibungslosen Betrieb ihrer komplexen Applikationslandschaften sicherzustellen. Denn mögliche Verzögerungen können an verschiedenen Ursachen liegen. Dazu zählen etwa die Bandbreite der Internetverbindung, Hardware-Ausfälle im Rechenzentrum, unzureichende Storage- oder CPU-Ressourcen, der Ost-West-Verkehr zwischen den Microservices, Software-Fehler oder Relokationen.
Gerade diese Komplexität und die Abhängigkeiten zwischen den Silos sind vielen Unternehmen nicht bewusst. So müssen sie erst verstehen, dass einzelne Management-Tools nur bei Problemen innerhalb des jeweiligen Silos Alarmmeldungen ausgeben. Liegt die Ursache jedoch an einer unzureichenden oder fehlenden Zusammenarbeit mit anderen Bereichen, bleibt das Tool stumm. Daher benötigen Unternehmen einen umfassenden Überblick über den gesamten Technologie-Stack, also eine Full-Stack Observability (FSO). Nur dann erhalten sie die richtigen Erkenntnisse zur Optimierung ihrer gesamten Rechenzentrums- und Multi-Cloud-Umgebung.
Warum ein umfassender Überblick nötig ist, zeigt folgendes Beispiel: Eine virtuelle Maschine benötigt mehr Ressourcen auf einem physikalischen Server. In der klassischen Welt weist das entsprechende Management-Tool ihr diese Ressourcen einfach zu. Dabei bemerkt das Tool jedoch nicht, dass diese Ressourcen anderen virtuellen Maschinen auf diesem Server fehlen. Das kann zu Engpässen bei den davon unterstützten Anwendungen bis zu deren Ausfall führen. Das bedeutet: Der Vorteil für eine Komponente wirkt sich fatal auf das Gesamtsystem aus.
Solche Zusammenhänge erkennt eine FSO-Lösung und vermeidet proaktiv siloübergreifende Probleme. Dazu sammelt und analysiert sie Daten aus allen Silos, um die Ressourcen für sämtliche Komponenten aller Applikationen und Infrastrukturen zu optimieren.
Optimale On-Premises- und Cloud-Prozesse sind jedoch nur eine Anforderung an die FSO. So muss sie nicht nur die richtigen Ressourcen zuweisen, sondern auch Probleme in und zwischen den Netzwerken aufdecken. Über Software-Agenten im eigenen Netzwerk und bei den Cloud-Providern können Unternehmen ein umfassendes Monitoring aufbauen. Dabei erhalten sie Unterstützung von externen Anbietern. Ihre Software analysiert die Performance von lokalen Netzwerken über WANs, VPN-Verbindungen, Content Delivery Networks (CDNs) und Clouds bis hin zum Internet.
Unternehmen können mit Hilfe der Erkenntnisse aus den verschiedenen Ebenen im TCP/IP-Stack proaktiv Probleme vermeiden. Zum Beispiel erkennen sie schnell, ob eine Seite erreichbar ist und der Handshake funktioniert oder sich die Performance einer Anwendung verschlechtert. Die Sicht auf alle Punkte in den verschiedenen Netzwerken zeigt frühzeitig mögliche Engpässe, Überlastungen, falsche Routen, verlorene Datenpakete oder Ausfälle. Damit optimieren Unternehmen sowohl ihr eigenes Netzwerk als auch ihre Private Clouds. Zusätzlich können sie ihre Public Cloud und Internet Service Provider auf Fehler in ihren Netzwerken hinweisen.
Die beste Hardware und das schnellste Netzwerk bringen jedoch wenig, wenn eine Anwendung Programmierfehler aufweist. Daher benötigt eine FSO-Lösung auch eine Code-Überprüfung, um das normale Verhalten einer Applikation zu ermitteln. Auf Basis dieser Grundlinie erkennt die Lösung sofort Abweichungen und gleicht diese mit Programmänderungen ab.
Als konkretes Beispiel: Ein Entwickler ändert die Datenbank-Abfrage, damit eine Applikation mehr Informationen bekommt. Doch die Übertragung und Bearbeitung der zusätzlichen Daten beeinträchtigen ihre Performance deutlich. Die Lösung erkennt sofort das Problem und führt es auf die Code-Änderung zurück. Dabei ermittelt sie, an welcher Stelle genau die User den Vorgang abbrechen, um die entsprechenden Programmierzeilen zu prüfen. Zudem kann sie unerwünschte Verknüpfungen entdecken, wie die Nutzung von Test-Datenbanken in der Produktion.
Anwendungen laufen heute nicht nur im eigenen Rechenzentrum, sondern auch in Clouds und SaaS-Angeboten. Das erfordert eine siloübergreifende Sicht auf den gesamten Technologie-Stack, die nur eine FSO-Lösung bieten kann. Sie stellt die notwendigen Erkenntnisse für fundierte Entscheidungen bereit, die sie bei Bedarf automatisch umsetzt. Damit vermeiden Unternehmen, dass die Verbesserung für eine Komponente das Gesamtsystem gefährdet. Zudem profitieren sie von einer optimalen Performance ihrer kombinierten On-Premises- und Multi-Cloud-Umgebung.
Uwe Müller ist Head of Sales & Pre Sales Datacenter bei Cisco Deutschland