Die Softwarehersteller haben ihre Systeme ursprünglich für LAN-Umgebungen entwickelt. Deshalb bringen einem Unternehmen mit verteilten Niederlassungen selbst kostspielige Erweiterungen der Bandbreite auf Dauer keine Lösung für die Sicherung der WAN-Zugriffsleistung. Wer den Kampf gegen Latenz und Jitter aber bereits auf Protokollebene aufnimmt, kann im Verein mit dynamischem Caching und intelligenter Transportsteuerung auch im Weitverkehrsnetz LAN-ähnliche Performance erzielen.
Solange Server- und Speicherkapazitäten auf entfernte Filialen verstreut sind, lassen sich weder
Investitions- noch laufende Managementkosten langfristig begrenzen. Angesichts rasant wachsender
Datenbestände steht vielerorts zudem die Konzentration von Storage-Ressourcen in einem
unternehmensweiten Speichernetz auf der Tagesordnung. Zu den Gründen zählen nicht nur die Kosten,
sondern auch der Umstand, dass sich die Stabilität geschäftskritischer Anwendungen ohne zentral
gesteuerte Di-saster-Recovery-Verfahren oft nicht länger gewährleisten lässt und das Unternehmen
unter Umständen Compliance-Anforderungen (Compliance: Einhaltung gesetzlicher Vorgaben) verfehlt.
Sobald mehr als vier oder fünf Standorte mit IT-Services zu versorgen sind, führt über kurz oder
lang kein Weg an der Konsolidierung der Infrastruktur vorbei.
Bei Projekten zur Überführung von File- und Printservern in ein filialübergreifendes
Rechenzentrum hat sich allerdings schon mancher Netzwerkadministrator die Zähne am
Laufzeitverhalten der Signale ausgebissen. Je größer die Entfernung zu den angeschlossenen
Zweigstellen, desto schwieriger gestaltet sich die Vorhersage möglicher Latenzen im WAN. Dabei sind
schwankende Signalverzögerungen nur der Auslöser für plötzliche Performance-Einbrüche in den
Filialen. Eigentlicher Verursacher sind überkommene Kommunikationsprotokolle für Druck-, Datei- und
Serverdienste wie NFS (Network File Service) im Unix-Umfeld und CIFS (Common Internet File System)
auf Microsoft-Plattformen. Beide Protokolle sind ursprünglich für den Einsatz in lokalen Netzen
konzipiert. Sie haben daher ihre liebe Not mit verzögerten Antworten auf Open-, Lock- und
Write-Requests. Allein für das Öffnen eines Word-Dokuments tauschen Client und Server leicht
hunderte von Nachrichten, die außerdem noch in synchroner Folge beantwortet werden müssen –
ansonsten pausiert das Programm. Um Dateizugriffen via WAN auch ohne teure Kapazitätserweiterungen
auf die Sprünge zu helfen, versteckt ein neuer, viel versprechender Optimierungsansatz das gesamte
WAN hinter Appliances: Spezielle Netzwerkgeräte kapseln den unberechenbaren Übertragungsweg
gewissermaßen ein und federn damit eine Reihe von Laufzeitproblemen gegenüber den Sorgenkindern NFS
und CIFS ab.
Bei den so genannten Wide Area File Services (WAFS) treten derartige Appliances deshalb immer im
Duo auf (symmetrischer Ansatz), und zwar als Core File Engine (CFE) in der Zentrale und Edge File
Engine (EFE) in der Außenstelle. Dem Client in der Dependance erscheint die Edge-Appliance somit
wie ein Standard-Host im LAN. Für NFS-Clients ist sie in der lokalen DNS-Tabelle registriert. Sie
stellt für jedes vom zentralen Fileserver exportierte Verzeichnis lokal einen Mount Point bereit.
Auf ihn ermöglicht das Standard Mount Protocol – seit Version 4 Bestandteil von NFS – problemlos
den Zugriff.
Für CIFS-Clients kann eine einzelne Appliance leicht auch verschiedene Fileserver
repräsentieren. Dabei bildet die Appliance im Rechenzentrum den jeweiligen logischen Host-Namen der
EFE auf den zugehörigen Original-Fileserver ab. Windows-Clients in Zweigstellen sind somit in der
Lage, einfach via Session-Setup-Kommando von CIFS auf logische Fileserver in ihrer unmittelbaren
Netzwerkumgebung zuzugreifen. Alternativ dazu lassen sich auch unternehmensweit globale Namensräume
einrichten, zum Beispiel um Dokumente standortübergreifend gemeinsam zu bearbeiten. Dafür bietet
sich unter anderem DFS (Distributed File System) an, ein Mechanismus für die Dateiablage in
Verzeichnissen auf Basis einer Baumstruktur.
Zu den Kernfähigkeiten der neuen Appliances gehört das intelligente Caching nicht nur von Lese- und Schreibzugriffen, sondern auch von assoziierten Metadaten. Ein dynamischer Puffer in der Edge-Appliance sorgt dafür, dass die meisten Requests lokal umsetzbar sind, ohne den zent-ralen Fileserver direkt über das WAN ansprechen zu müssen. Der Abgleich erfolgt asynchron in Intervallen – ein Verfahren, das per se gegen Latenz unempfindlich ist. Ebenfalls gegen bremsende Latenzwirkungen gerichtet ist das so genannte Read-ahead Caching: Bei sequenziellen Lesevorgängen geht die Appliance davon aus, dass die verantwortliche Anwendung die komplette Datei bis zum Ende lesen wird und lädt diese deshalb vorsorglich im Hintergrund.
Im Allgemeinen ist weder für Lese- noch für Schreibzugriffe die gesamte Datei im Cache erforderlich. Die Appliance überträgt daher nur solche Segmente in den Cache, die auch tatsächlich verändert wurden. Unnötigen WAN-Traffic vermeidet sie außerdem durch einen negativen Cache: Sie speichert auch Informationen darüber, welche Dateien auf dem Fileserver nicht existieren, als Metadaten. Von vornherein zwecklose Zugriffsversuche unterbleiben also. Dies bringt insbesondere bei wiederholtem Bezug auf nicht vorhandene Konfigurationsdateien eine spürbare Entlastung des Netzverkehrs.
Wichtig für Administratoren ist nicht zuletzt: Bei diesem Cache handelt es sich nicht etwa um dezentralisierte Storage- Kapazitäten, die den Konsolidierungsambitionen zuwiderlaufen, sondern um ein flüchtiges, selbstreinigendes Speichersystem. Dieses System muss die IT-Abteilung weder vor Ort in der Filiale managen noch zentral sichern.
Performance-Tuning per Netzwerkgerät zielt auch auf die Optimierung der gleichzeitigen
Dateinutzung durch viele Anwender an unterschiedlichen Standorten. Idealerweise verhalten sich
zentral gespeicherte Word-Dokumente oder Excel-Sheets hier nicht anders als bei einem Zugriff aus
dem LAN. Daher unterstützt das Appli- ance-Doppel die Share-Modi von CIFS bei gleichzeitiger
Nutzung über WAN und LAN. Ähnliches gilt für NFS, wo lokales und globales File Locking ebenfalls
Hand in Hand gehen.
Wenn ein Client eine Datei oder einen binären Block anfordert, überprüft die Edge-Appliance
zunächst den lokalen Cache: Ist die Datei vorhanden? Und ist sie aktuell genug? Wenn ja, wird dem
Client Request unverzüglich Genüge getan. Nur falls die gewünschte Datei nicht im Cache vorrätig
oder ihr Verfallsdatum bereits überschritten ist, muss das Gerät die aktuelle Version über das WAN
vom entfernten Fileserver laden.
Im Sinne einer durchgehenden Ende-zu-Ende-Architektur ist es von Vorteil, dass Zugriffskontrolle
und Authentisierung nicht den Appliances obliegen. Beispielsweise leitet CIFS sowohl die
Benutzerauthentisierung beim Session Setup als auch sämtliche Autorisierungen bei jedem einzelnen
Open Request einfach an den Server weiter. So sind separate Dateien zur Rechtesteuerung niemals
dezentral zu verwalten. Dies vereinfacht die Konfiguration und das Management der File Engines
erheblich.
Nicht nur NFS und CIFS sind von Haus aus für LAN-Umgebungen entwickelt, sondern auch viele
gängige Geschäftsapplikationen. Bei der Bereitstellung über WAN-Links leiden sie deshalb unter
ähnlichen Performance-Problemen wie der Fernzugriff auf Fileserver. Deshalb nutzen die Appliances
nun eine weitere Protokollschicht. Dieses zusätzliche "Adaption Protocol" setzt direkt auf TCP/IP
auf. Es benötigt pro Core-Appliance lediglich einen einzigen offenen Port und ist damit
Firewall-freundlich.
Für jeden Link zwischen den Appliances lassen sich mehrere gleichzeitige TCP-Verbindungen
konfigurieren. Requests und Responses laufen dann parallel über mehrere TCP-Kanäle. Dies nutzt die
Übertragungskapazität effektiver aus. Vor allem aber fängt das Adaptionsprotokoll dadurch selbst
hohe Latenzwerte ab, die bei reiner TCP-Übertragung die Performance einer Anwendung unweigerlich
mindern würden. Um Konflikte zwischen gleichzeitig genutzten Anwendungen zu vermeiden, arbeitet das
Adaptionsprotokoll zudem mit netzwerk-seitigen Mechanismen zur Bandbreitensteuerung zusammen.
Als Alternative, aber auch als Ergänzung zur symmetrischen Nutzung von Appliances empfiehlt sich
ein streng zentralistischer oder asymmetrischer Ansatz. Der Fokus liegt hierbei auf
Konsolidierungsstrategien, die Eingriffe auf Client-Seite konsequent vermeiden wollen. Ein
Zusatzgerät zur Performance-Steigerung ist hier nur im Rechenzentrum erforderlich, nicht aber in
den Zweigstellen.
Grundintention des asymmetrischen Ansatzes ist es, den applikationsbezogenen WAN-Verkehr zu
reduzieren, ohne die davon betroffenen Anwendungen selbst verändern zu müssen. Gegen Latenzen im
WAN führen solche Systeme verschiedene Optimierungstechniken ins Feld, zum Beispiel die "Flash
Forward Object Acceleration". Seitenaufrufe via Web erfordern generell für sämtliche eingebetteten
Objekte Checks im Cache des Browsers. Jede Einzelprüfung produziert dabei einen separaten
HTTP-Request vom Client zum Server. Nicht selten sind so pro Request 20 und mehr KByte upstream zu
übertragen. Je mehr eingebettete Objekte vorliegen, desto länger zögert sich der Seitenaufbau hin
und desto höher ist die Netzlast. Die Flash Forward Object Acceleration sammelt nun die
Versionsinformationen für alle Objekte einer Seite und fügt sie in kompakter Form zum Download in
das übergeordnete (Parent-)HTML-Dokument ein. Sind beispielsweise das "Last-Modified"- und das "
Expires"-Datum eines eingebetteten Objekts auf der Serverseite noch nicht abgelaufen, liegt es
ohnehin in aktueller Version im Browser-Cache vor. Dies vermeidet den HTTP GET Request beim
erneuten Ansprechen der Seite, und der zugehörige Upstream vom Client entfällt.
Unnötige Aktualitätstests für Objekte lassen sich auch durch einen so genannten "Smart Redirect"
unterbinden. Bei vielen Anwendungsentwicklern sind HTML-Meta-Tags zur automatischen Seitenumleitung
beliebter als der Umgang mit vergleichsweise unhandlichen URLs. Nur ist dabei auch für solche
Seiten, die eigentlich nur die Funktion eines Umleitungsschildes haben, die Gültigkeit aller
eingebetteten Objekte zu prüfen. Dies produziert zahlreiche überflüssige Requests. Smart Redirect
konvertiert HTML-Meta-Tags in HTTP-Header-Informationen und schüttelt somit den Ballast nicht
benötigter Objekte ab.
Optimiertes Caching ist überall dort ein probates Mittel, wo Webseiteninhalte über einen
längeren Zeitraum hinweg konstant bleiben. Ändern diese sich jedoch allzu häufig, stößt das
Verfahren an seine Grenzen: Es bleibt nur noch wenig Spielraum, um unnötige Requests einzudämmen –
einfach deshalb, weil fast alle unter ihnen tatsächlich notwendig sind. Gleichwohl lässt sich auch
dann noch einiges optimieren, denn die meisten Modifikationen einer Seite sind lediglich marginal.
Der asymmetrische Ansatz hält daher eine Methode bereit, um immer nur diese geringfügige Differenz
zwischen alter und neuer Seite zu übertragen: das Delta zwischen Server und Client-Cache, das in
den allermeisten Fällen lediglich eine Handvoll Bytes ausmacht. Selbst wenn sich 2000 Byte einer
insgesamt 50 KByte großen HTML-Textseite ändern, bringt dies einen Einspareffekt von 96 Prozent
redundanter Information.
Delta Encoding stützt sich auf ein Konzept von Basis- und Differenz-Files: Die Basisdatei
repräsentiert die Webseite, wie sie bereits im Browser-Cache vorhanden ist. Die Differenzdatei
enthält Instruktionen für den Browser, wie die Basisseite auf Byte-Level zu verändern ist, damit
sie der aktuellen Seitenversion auf dem entfernten Server gleicht. Das Prinzip heißt also:
Konstruktion aus Vorhandenem auf Basis tatsächlich veränderter Inhaltsfragmente statt permanenter
Übertragung kompletter Webseiten.
Portalanwendungen markieren oft Seitenobjekte wie Bilder, Java-Skripts, Active-X-Controls oder
Binärdateien als "nicht cachebar" (non-cacheable), zum Beispiel, weil sich das betreffende Objekt
als Reaktion auf Benutzerinteraktionen unvorhersehbar verändern kann. Derartige
Non-cacheable-Objekte sind Leistungsbremsen in reinster Form, weil der Browser sie bei jedem
Seitenaufruf immer wieder neu laden muss. Sie mögen im LAN-Umfeld praktikabel sein; in
WAN-Umgebungen ist die daraus folgende Ineffizienz nicht mehr zu rechtfertigen. Deshalb schaltet
sich hier das asymmetrische Optimierungssystem mit einer eigenen Echtzeitobjektevaluierung
dazwischen: Es entfernt die Markierungen und etabliert ein Versionsmanagement für die betroffenen
Objekte. Nun gilt für alle Objekte das Prinzip: Das Weitverkehrsnetz überträgt keine bereits
bekannten Informationen.
Appliances zur Performance-Steigerung könnten für bisher noch zögerliche Unternehmen mit
Filialstruktur den Weg in Richtung einer standortübergreifend konsolidierten IT-Landschaft ebnen.
Voraussetzung ist, dass sich die eingesetzten Beschleunigungstechniken passgenau in das Netzwerk
einfügen. Ein Unternehmen will schließlich höhere Mitarbeiterproduktivität in den Zweigstellen
nicht durch zusätzliche Managementkosten erkaufen müssen. Wichtig ist zudem: Die Techniken müssen
die Performance steigern und den Bandbreitenbedarf reduzieren, dabei aber geleistete Investitionen
vollständig schützen. Hierzu zählen vor allem Investitionen in jene Applikationen, die ursprünglich
für lokale Umgebungen entwickelt wurden, die nun aber via WAN mit vergleichbaren
Leistungseigenschaften bereitstehen sollen.