Kapazitätsplanung im Weitverkehrsnetz

Den WAN-Verkehr fortlaufend optimieren

9. März 2005, 0:16 Uhr | Andreas Hunziker/wg Andreas Hunziker ist Manager Performance Management Solutions EMEA Central Region bei Compuware.

Werden Applikationen, die im LAN reibungslos liefen, eins zu eins per WAN verteilt, sind Performance-Probleme vorprogrammiert. Bei Kapazitätsplanungen für WANs gilt es deshalb, das Response-Verhalten jeder einzelnen Anwendung ins Visier zu nehmen. Dieser Beitrag beschreibt, inwiefern "Rapid Application Deployment" dafür einen praktikablen Ansatz liefert und wie sich damit Kosten für zuviel Bandbreite vermeiden lassen.

Seit Datenverkehr im Weitverkehrsnetz für Mittelständler erschwinglich ist, liebäugeln immer
mehr Unternehmen mit der Zentralisierung ihrer Server. Je mehr Niederlassungen mit Daten und
Applikationen zu versorgen sind, desto interessanter erscheint diese Option. Die Vorteile liegen
auf der Hand: Ein stark vereinfachtes IT-Management und eine zentrale Datensicherung mit
einheitlicher Disaster-Recovery-Strategie (Katastrophenvorsorge) versprechen beträchtliche
Einsparungen. Zentralisiert lassen sich IT-Verfahren zudem besser standardisieren, was auf
Geschäftsprozessebene ein deutliches Plus an Produktivität verspricht.

Service-Provider sind dank IP und MPLS (Multi-Protocol Label Switching) in der Lage, sichere
VPNs anzubieten. Geschäftskritischer Verkehr lässt sich gemäß QoS-Vorgabe (Quality of Service)
bevorzugt behandeln; für wichtige Daten stehen die Ampeln im WAN dann sozusagen auf Dauergrün. "
Bandbreite nach Maß" lautet ein gängiger Slogan, der viele Netzwerkverantwortliche in dem Glauben
wiegt, auch jedes Performance-Problem ließe sich mit der richtigen Dosis von Zusatzkapazität ganz
einfach "wegskalieren".

Latenzen: ein unterschätztes Problem

Viele unterschätzen dabei das Phänomen der Latenzen im Netz. Diese Verzögerungen im WAN-Verkehr
sind verursacht durch die Laufzeiten der Datenpakete auf Kabeln und Glasfasern sowie durch
unterschiedlich langes Verweilen der Pakete in Routern und Switches. Die Gesamtverzögerungszeit, zu
der sich Einzellatenzen im Einzelfall addieren, ist sowenig vorhersagbar wie der genaue Pfad, den
ein bestimmtes Paket durch das Netzwerk nimmt. Aus diesem Grund sind theoretische
Performance-Prognosen ohne empirische Messung oft schwierig.

Probleme bereitet dies besonders bei Zentralisierungsprojekten. Denn viele Anwendungen, die
neuerdings per WAN verteilt werden, waren ursprünglich für schnelle LAN-Umgebungen konzipiert.
Manche Programme erweisen sich als relativ latenzresistent: Sie kommen mit Verzögerungen gut klar
und bieten ohne große Probleme auch im neuen Netzumfeld akzeptable Leistungswerte. Andere Fälle
hingegen zeichnen ein gegenteiliges Bild: Gerade sparsame Thin-Client-Lösungen wie Citrix Metaframe
oder Windows Terminal Services reagieren häufig empfindlich. Zu Recht stehen sie hoch im Kurs für
den zentralen Einsatz von Altanwendungen, die ansonsten übermäßig viel Bandbreite konsumieren
würden: Die Thin-Client-Verfahren übertragen nur geringe Datenmengen, nämlich ausschließlich
Bildschirminhalte und Tastatureingaben. Dies ist zugleich ein Grund für die hohe
Latenzanfälligkeit: Sobald der Zeitverzug zwischen Tastendruck und erwarteter Bildschirmreaktion in
den wahrnehmbaren Bereich gerät, kann die komplette Lösung für Anwender an Nutzwert verlieren. Bei
Konsolidierungen und Zentralisierungen ist mangelnde Performance der Akzeptanzkiller Nummer eins –
mit verheerenden Auswirkungen auf den Gesamterfolg des Vorhabens. Oft genug überschreiten
nachträgliche Tuning-Versuche Termine und Budgets und belasten damit zusätzlich den erhofften ROI
(Return on Investment, Rendite).

Komplexität senken

Die angerissene Problematik bleibt nicht auf einmalige Serverzentralisierungen beschränkt. Unter
dem Druck des Wettbewerbs müssen Unternehmen neue Geschäftsprozesse heute kurzfristig etablieren
können. Ebenso gefragt ist Geschwindigkeit deshalb beim Verteilen neuer Software, die diese
Geschäftsprozesse abbildet. Das so genannte "Rapid Application Deployment" liefert hierfür einen
viel versprechenden Ansatz. Die Grundidee: eine intelligente Kombination aus Messung und
Vorhersage, systematisch angewandt unter verschiedenen Sichtweisen. Der Ansatz zielt darauf ab, die
sonst kaum beherrschbare Komplexität laufender WAN-Optimierung auf ein praktikables Maß zu
reduzieren. Der Ausgangspunkt sind die Anwender; die Zielgröße ist die tatsächliche Performance
einer konkreten Anwendung. Randbedingung ist der sparsame Einsatz der kostenträchtigen Ressource
Bandbreite. Die Implementierung soll dabei möglichst schnell vonstatten gehen.

Rapid Application Deployment kann als eine lose Sammlung von Best Practices verstanden werden,
die neben harten Messungen auch Projektionen auf kritische Größen umfasst. Kernkomponenten des
Verfahrens sind die Anwendungsprofile, Lasttests und die Kapazitätsplanung.

Anwendungsprofile analysieren den Einfluss, den das avisierte Produktionsnetzwerk auf die
Performance der Applikation hat. Sie liefern nicht nur präzise QoS-Anforderungen für den
Netzwerker, sondern auch Input für Softwareentwickler in Bezug auf die Netzwerkfähigkeit der
Anwendung. Anwendungssprofile gehen aus Messungen hervor und basieren damit auf harten Fakten.
Lasttests geben Auskunft über die Server-Performance unter verschiedensten Nutzungsbedingungen.
Obgleich sich der Fokus hier in erster Linie auf die optimale Rechnerkonfiguration richtet, decken
Lasttests auch weiteren Analysebedarf auf. Die Kapazitätsplanung schließlich dreht sich
hauptsächlich um die Frage, wie der zusätzliche Verkehr einer Anwendung die Netz-Performance
beeinflusst. Sie zielt auf konkrete Antworten für die Auslegung (Sizing) von WAN-Links mit Blick
auf die gewünschten Antwortzeiten der Anwendung.

WAN-Links sind in aller Regel entweder über- oder unterdimensioniert. Im ersten Fall nimmt ein
Unternehmen zugunsten der Performance – also letztlich zugunsten der Produktivität betroffener
Geschäftsprozesse – Infrastrukturkosten über den Bedarf hinaus in Kauf. Der zweite Fall schont zwar
das IT-Budget, aber die Geschäftsprozesse leiden. Als Ausweg aus diesem Dilemma strebt
Kapazitätsplanung im Sinne von Rapid Application Deployment nach einer Balance, bei der die
Netzwerkleistung dem aktuellen Bedarf immer einen möglichst kleinen Schritt voraus ist. Das
verdeutlicht, dass Kapazitätsplanung im Kern einen fortwährenden Prozess darstellt, der Zukunft
antizipiert.

WAN-Provisioning im Detail

WAN-Planungsmethoden beruhen meist auf komplexen und daher teuren und zeitaufwändigen
Modellbildungen. In Abgrenzung dazu hat sich im Umfeld von Rapid Application Deployment der Begriff
"WAN-Provisioning" durchgesetzt. Das Verfahren zielt auf schnelle und kompakte Auskünfte darüber,
wo genau auf Anwendungs-, Server- oder Netzwerkebene welcher Handlungsbedarf besteht. Den
unterschiedlichen Perspektiven auf das Problem entsprechen beim WAN-Provisioning vier Profile: Zum
genannten Anwendungsprofil gesellen sich das Anwender-, das Deployment- und das
Infrastrukturprofil.

Anwenderprofile beschreiben, wie und wie oft Benutzer mit einer Applikation arbeiten. Ein
Unternehmen sollte diese Profile zunächst auf Geschäftsprozessebene anlegen, wo sich die Anzahl der
Geschäftsfunktionen pro Stunde abklären lässt – beispielsweise wie viele Aufträge eingegangen, wie
viele Bestellungen ausgelöst oder wie viele Buchungen vorgenommen wurden. Im Anschluss folgt der
Abgleich der Ergebnisse mit den Messwerten der zugehörigen Anwendungsprofile. Weil Anwenderprofile
auf Befragung beruhen, also keine harten Daten liefern, empfiehlt es sich unter Umständen, zwei
Fragebögen einzusetzen: einen positiven, der gewissermaßen den Wunschzettel der Benutzer
repräsentiert, und einen negativen zur Beschreibung des gerade noch akzeptablen Worse Case.

Das Deployment- oder Implementierungsprofil umfasst die Anzahl von Clients und Servern und
ordnet Anwenderprofile Standorten und Nutzungszeiten zu. Es korrespondiert daher eng mit dem
Deployment-Plan für eine Anwendung. Das Infrastrukturprofil schließlich beschreibt, wie die
räumlich verteilten Niederlassungen an das Serverzentrum angebunden sind. Hierher gehören
insbesondere logische und physische WAN-Links, einschließlich aller verfügbaren Informationen über
Bandbreite, Hintergrundlast und Latenzen. Da der Fokus auf der Optimierung der WAN-Strukturen
liegt, können komplexe LAN-Topologien in diesem Kontext unberücksichtigt bleiben.

Interaktive Was-wäre-wenn- Szenarien

Eine Kapazitätsplanung sollte Implementierungen, die nur wenige Nutzer betreffen, ebenso
unterstützen wie solche, die weltweit tausende Clients angehen. Deshalb setzt WAN-Provisioning auf
verschiedenen Ebenen an: auf Transaktions-, Standort- und Unternehmensebene. Für alle drei Fälle
lässt sich mit geeigneten Werkzeugen das zugehörige Anwendungsprofil als Input für das
WAN-Provisioning generieren.

Auf Transaktionsebene wertet ein so genannter Response Time Predictor (RTP, Tool zur Vorhersage
der Antwortzeit) die Informationen von Nutzer-, Deployment- und Infrastrukturprofil aus. Dabei ist
es hilfreich, WAN-Links nicht so sehr im Hinblick auf Bandbreite zu betrachten, sondern als
Provider für dezidierte QoS. Damit berücksichtigt der RTP-Ansatz auch latenzempfindliche
Anwendungen, deren Performance nicht proportional mit der Bandbreite steigt.

Auf Standortebene basieren die Bandbreitenempfehlungen sowohl auf Anwender-Response als auch auf
der projizierten Auslastung des WAN-Links. Die hierzu eingesetzte Software sollte vordefinierte
Netzwerkpfade und Topologien bereithalten, die sich einfach am Bildschirm zusammensetzen lassen.
Sie sollte interaktive Bandbreiten- und Response-Listen liefern, sodass sich die wechselseitigen
Abhängigkeiten durch Änderung der jeweiligen Werte unmittelbar ablesen lassen.

Auf Unternehmensebene werden derartige Abfrageszenarien natürlich komplexer. Denn hier sind
meist diverse Topologien mit unterschiedlicher Link-Aggregation im Spiel. Als Stellgrößen kommen
neben Bandbreite und durchschnittlicher Netzwerk-Performance zum Beispiel auch
Konfigurationsalternativen für den Backbone in Betracht. Lassen sich verschiedene Standortoptionen
für Server durchspielen, dann erlaubt dies die Vorhersage der Trends resultierender
Verkehrsströme.

Fazit

Das Hauptaugenmerk von WAN-Provisioning liegt auf dem Rollout neuer Anwendungen. Eine
Serverzentralisierung ist dabei nur ein Spezialfall aus dem breiten Einsatzspektrum entsprechender
Werkzeuge. Bei der Werkzeugauswahl sollte man darauf achten, dass das Tool die
Rapid-Application-Deployment-Methode systematisch unterstützt. Dieser Ansatz liefert selbst für
Großprojekte innerhalb kürzester Zeit realistische Bandbreitenanalysen, verbunden mit einer klaren
Roadmap für die Optimierung des WANs und gegebenenfalls für das Reengineering der Anwendungen.
Dabei vermeidet dieses Vorgehen die Komplexität herkömmlicher General-Purpose-Modelle, die nicht
nur tiefes und daher teures Netzwerk-Know-how erfordern, sondern meist auch sehr viel Zeit
verschlingen – und damit die Einführung neuer Applikationen und Geschäftsprozesse verzögern.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+