In der IT stehen die Zeichen auf Zentralisierung. Das Rechenzentrum stellt den Nutzern nicht nur einzelne Anwendungen, sondern ganze Virtual-Desktop-Umgebungen und Cloud-Computing-Services wie Storage-Lösungen bereit. In dieser neuen Umgebung ist das Netzwerk das schwächste Glied in der Kette, wenn es um die Bereitstellung von Services geht. WAN-Optimierungslösungen stellen sicher, dass Weitverkehrsnetze die erforderliche Bandbreite und Dienstgüte bieten, ohne die solche Services nicht denkbar wären.Lange Zeit sah es so aus, als sei das klassische Rechenzentrum ein Auslaufmodell. Die Dezentralisierung der IT-Umgebung mithilfe von Netzwerken und "Fat Clients" am Arbeitsplatz ließ das Data Center in den Hintergrund treten. Doch das ändert sich derzeit. Dafür gibt es mehrere Gründe. Der erste ist, dass Unternehmen und Organisationen dazu übergehen, ihre IT-Infrastruktur zu konsolidieren: Sie fassen Server, Anwendungen und Speicherkapazitäten wieder im RZ zusammen. Die Grundlage dafür bildet das Virtualisieren von Servern, Applikationen und Speichersystemen samt der damit verbundenen besseren Auslastung der Hardware. Dies erlaubt es Großunternehmen, die Zahl der Rechenzentren zu verringern und dadurch die Kosten zu senken.
Virtual Desktops und Cloud Computing
Hinzu kommt, dass Unternehmen Anwendungen oder sogar ganze Arbeitsumgebungen (Desktops) in zunehmendem Maße zentral vom RZ aus zur Verfügung stellen. Laut einer IDC-Studie von 2011 setzen bereits 46 Prozent der Unternehmen in Deutschland virtualisierte Desktops ein. Der Anwender greift dabei über das Unternehmensnetz oder per VPN auf seinen individuellen Desktop und die darauf installierten Anwendungen zu (Virtual Desktop Infrastructure, VDI). Der Trend geht dazu, künftig solche Dienste auch für Remote-Benutzer zur Verfügung zu stellen. VDI bietet einem Unternehmen eine Reihe von Vorteilen: ein höheres Maß an Sicherheit, weil Daten und Anwendungen zentral im sicheren RZ lagern, ein einfacheres Lizenz- und System- sowie ein zentrales Patch-Management. Hinzu kommt eine höhere Flexibilität, weil Mitarbeiter von unterschiedlichen Orten und Endgeräten aus auf ihre Arbeitsumgebung zugreifen können.
Ein weiterer Faktor, der Rechenzentren wichtiger werden lässt, ist das Cloud Computing. Anwender können Speicherplatz und Server-Kapazitäten (Infrastructure as a Service), Entwicklungsplattformen (Platform as a Service) sowie Anwendungen (Software as a Service) aus der "Wolke" beziehen. Die Dienste stellt dabei ein externer Dienstleister (Public Cloud) oder das eigene Rechenzentrum (Private Cloud) bereit. Dazwischen anzusiedeln sind bei einem Provider gehostete Private Clouds sowie Mischumgebungen aus Public und Private Cloud (Hybrid Cloud).
Allen Ansätzen - also RZ-Konsolidierung, VDI und Cloud Computing - ist eines gemeinsam: Sie erfordern Weitverkehrsstrecken mit hoher Kapazität und Zuverlässigkeit sowie einem Höchstmaß an Dienstgüte (Quality of Service, QoS). Dasselbe gilt für ein viertes Anwendungsfeld: das Sichern von Daten und Anwendungen in unterschiedlichen Rechenzentren, um sicherzustellen, dass bei einem RZ-Ausfall die Geschäftstätigkeit weitergeführt werden kann (Disaster Recovery).
"Fat Pipes" koppeln Rechenzentren
Anwendungen wie Cloud-Computing-Dienste, Disaster Recovery oder das Bereitstellen virtualisierter Desktops erfordern WAN-Verbindungen mit maximaler Verfügbarkeit und hoher Bandbreite (siehe Kasten "WAN-Bandbreite"). Ebenso wie bei schmalbandigen Weitverkehrsverbindungen ist es auch bei "Fat Pipes" zwischen Rechenzentren sinnvoll, eine WAN-Optimierungslösung einzusetzen. Denn auch bei WAN-Verbindungen mit hoher Bandbreite konkurrieren unterschiedliche Anwendungen, etwa das Bereitstellen einer VDI oder eines Cloud-Dienstes, um die vorhandene Bandbreite. Hier können Latenzzeiten auftreten, die für bestimmte Anwendungen wie Virtual Desktops oder Voice over IP nicht akzeptabel sind. Mittels WAN-Optimierung lassen sich solche negativen Effekte lindern.
Hinzu kommt, dass WAN-Links mit hoher Bandbreite, zum Beispiel E3-Verbindungen mit 34 MBit/s, häufig von vielen Anwendern gleichzeitig genutzt werden, sodass oft mehrere Tausend oder Zehntausend TCP-Verbindungen (Flows) parallel vorhanden sind. Dies erhöht die Anforderungen an die Verkehrssteuerung, besonders hinsichtlich der Latenzzeiten und der Paketverlustrate. Speziell in MPLS-Netzen und bei VPNs tritt häufig das Phänomen auf, dass Pakete verlorengehen oder in der falschen Reihenfolge übermittelt werden.
Vor allem bei WAN-Verbindungen mit hoher Kapazität, die in kritischen Bereichen wie Cloud Computing und Disaster Recovery zum Einsatz kommen, ist daher mehr gefordert als eine reine WAN-Beschleunigung. Notwendig sind erstens eine Beschleunigung der Datentransfers, um Latenzzeiten zu vermeiden; zweitens Mechanismen, um die Integrität der Daten und die Dienstgüte von Anwendungen sicherzustellen, indem zum Beispiel unkontrollierte Paketverluste verhindert werden; und drittens Verfahren, die eine optimale Auslastung der WAN-Verbindungen zu garantieren. Dies sollte in Echtzeit erfolgen, zum Beispiel durch das Deduplizieren redundanter Daten, bevor diese über das WAN laufen.
WAN-Optimierung statt WAN-Beschleunigung
Um die Latenzzeiten zu begrenzen, bieten moderne WAN-Optimierungslösungen mehrere Verfahren an. Eines besteht darin, die Sende- und Empfangsfenster von TCP-Pakete zu erweitern - vom Standardwert 64 KByte auf bis zu 1 GByte. Andere Techniken sind ein präziseres Ermitteln der Round Trip Time (RTT) eines Pakets sowie eine effizientere Überlastkontrolle (Congestion Control). Hier kommen häufig herstellerspezifische Verfahren wie Highspeed TCP zum Einsatz. Highspeed TCP passt die TCP-Sende- und Empfangsfenster dynamisch an, und zwar in Abhängigkeit von der aktuellen Paketverlustrate. Diese Technik eignet sich vor allem für WAN-Verbindungen mit hoher Bandbreite, die auf kurze Latenzzeiten angewiesen sind.
Integrität der Daten sicherstellen
Selbst wenn eine WAN-Verbindung auf der physischen Ebene keine Fehler aufweist, kann es auf der Netzwerkebene zu Paketverlusten kommen, beispielsweise durch überlastete Router oder fehlerhafte Links. In IP- und MPLS-VPNs können Verlustraten von bis zu fünf Prozent auftreten, im Schnitt sind es zwischen 0,1 und einem Prozent. Bereits bei einer Rate von 0,5 Prozent ist es schwer, einen Durchsatz von mehr als 10 MBit/s pro TCP-Flow zu erreichen, selbst bei einer "Fat Pipe".
Verhindern lässt sich dies, wenn eine WAN-Optimierungslösung Techniken wie Forward Error Correction (FEC) und Packet Order Correction (POC) einsetzt. Bei FEC wird einer bestimmten Zahl n von Paketen ein Fehlerkorrekturpaket hinzugefügt. Es enthält Informationen über jedes Paket, mit dem zusammen es übermittelt wird. Diese Daten stellen sicher, dass ein verloren gegangenes Paket nach der Übertragung wiederherzustellen ist - ohne erneute Übermittlung. POC wiederum verhindert, dass Pakete in der falschen Reihenfolge zum Empfänger gelangen. Nach Erfahrungswerten von Silver Peak lassen sich die Paketverlustraten mit FEC und POC auf einen Wert von 0 bis 0,1 Prozent begrenzen. Das ist nicht nur für Anwendungen wie die Datenreplikation zwischen Rechenzentren ausreichend, sondern auch für Applikationen wie Voice over IP oder Citrix Xenapp.
Wichtig bei der Wahl eines WAN-Optimierungssystems ist, dass es die Fehlerkorrektur mittels FEC und POC in Echtzeit durchführt. Die meisten Lösungen verwenden Verfahren, die ein erneutes Übermitteln verlorengegangener Pakete zur Folge haben. Dies erhöht die Latenzzeit und verringert die nutzbare Bandbreite der WAN-Verbindung.
Datendopplungen filtern
Um die Bandbreite einer WAN-Strecke optimal auszunutzen, eliminieren WAN-Optimierungssysteme mehrfache vorhandene Daten (Deduplizierung). Besonders effizient ist die Deduplizierung auf Byte-Ebene. Bei diesem Ansatz wird jedes Byte einer Datei daraufhin überprüft, ob es mit bereits übermittelten Daten identisch ist. Dazu speichern WAN-Optimierungs-Appliances an den Endpunkten der Übertragungsstrecke die übermittelten Daten auf Festplatten oder in RAM. Werden identische Muster entdeckt, senden die Systeme nicht erneut die Datenpakete, sondern nur noch Pointer. Mithilfe dieser Methode lassen sich je nach Datentyp zwischen 50 und 98 Prozent der zu übertragenden Datenmenge einsparen.
Wie effizient mehrfach vorhandene Daten ausgefiltert werden, hängt vom Aufbau der WAN-Optimierungs-Appliance ab. Ein System mit integrierten Festplatten kann den Datenverkehr mehrerer Tage speichern und analysieren. Dies erhöht die Wahrscheinlichkeit, identische Pakete entdecken und durch Pointer ersetzen zu können.
Systeme, die den Datenverkehr nur in RAM untersuchen, sind in diesem Punkt limitiert. Solche Appliances verfügen in der Regel über 8 bis 48 GByte RAM. Zum Vergleich: Über eine WAN-Verbindung mit 155 MBit/s laufen bei voller Auslastung 60 GByte Daten pro Stunde (in einer Richtung). Bei einer typischen Auslastung eines solchen WAN-Links von zwölf Prozent sind dies fast 1 TByte pro Tag. Ein System, das diese Datenmenge durch seinen Arbeitsspeicher bugsieren muss, bekommt bei diesen Datenvolumina Probleme.
Fazit
Cloud Computing, virtuelle Desktops und Anwendungen wie Disaster Recovery lassen sich ohne WAN-Verbindungen mit hoher Kapazität nicht realisieren. Da nur in einem Bruchteil der Regionen in Deutschland solche WAN-Anschlüsse zur Verfügung stehen, ist der Einsatz von WAN-Optimierungssystemen unabdingbar. Auch dort, wo E3-Verbindungen mit 34 MBit/s und mehr vorhanden sind, lohnt sich der Einsatz solcher Lösungen. Denn sie stellen sicher, dass Daten effizient und sicher über solche Links übermittelt werden. Das spart dem Unternehmen Geld und erhöht die Service-Qualität.
Checkliste WAN-Optimierung
Eine WAN-Optimierungslösung, die für die Kopplung von Rechenzentren oder in Cloud-Computing-Umgebungen zum Einsatz kommt, sollte folgende Kriterien erfüllen:
Hoher Durchsatz, auch wenn alle Funktionen inklusive Datendeduplizierung aktiviert sind. Häufig geben Hersteller Werte an, die sie nur bei Aktivierung weniger Optimierungsfunktionen erzielen. Diese sind in der Regel höher.
Zahl der unterstützten TCP-Verbindungen: Die WAN-Optimierungs-Appliance im RZ muss so ausgelegt sein, dass sie alle TCP-Verbindungen zu Außenstellen unterstützt. Bereits in einer kleinen Filiale mit etwa 50 Mitarbeitern fallen zirka 22.000 bis 23.000 TCP-Flows an.
Genügend Rechenleistung: WAN-Appliances in Rechenzentren sollten über Mehrkern-Prozessoren und ein 64-Bit-Betriebssystem verfügen. Eine 64-Bit-Architektur kann im Gegensatz zu einem 32-Bit-System mehr als 4 GByte Arbeitsspeicher adressieren.
Verschlüsselung in Echtzeit: Die Hardware muss so leistungsfähig sein, dass sie in Echtzeit den Datenverkehr ver- und entschlüsseln kann. Dies gilt auch für Daten, die auf Massenspeichern wie Festplatten zwischengespeichert werden. Diese Funktion sollte man im Rahmen einer Teststellung im eigenen Haus analysieren.
Multiprotokoll-Support und hohe Transparenz: WAN-Appliances sollten für die WAN- und LAN-Infrastruktur transparent sein. Bei Änderungen an Servern, Routern etc. sollten keine Änderungen an der Konfiguration der Appliance erforderlich sein. Neben TCP sollten die Geräte auch UDP unterstützen.
QoS-Funktionen: Diese sollten direkt im WAN-Optimierungssystem implementiert sein. Nur dann lassen sich Policies für einzelne Anwendungen festlegen und umsetzen, und dies auf Basis der realen Daten wie Latenzzeiten.
Deduplizierung: Vorzuziehen ist ein System, das Daten auf Festplatten speichert. Dies erhöht die Performance, vor allem bei WAN-Links mit großer Bandbreite.
Management: Das System sollte sich einfach verwalten lassen. Ein Muss ist die Möglichkeit, Appliances von zentraler Stelle aus in Außenstellen in Betrieb zu nehmen und zu verwalten.
Hochverfügbarkeit und Clustering: RAID-Konfigurationen, redundante Netzteile, Lüfter und Netzwerkanschlüsse sollten Standard sein. Bei größeren Systemen sind Load-Balancing-Funktionen und die Option zum Clustern von Geräten wünschenswert.
WAN-Bandbreite oft nicht optimal
Derzeit vertrauen viele Unternehmen in Deutschland noch auf E1-WAN-Verbindungen mit 2,048 MBit/s. Das ist für Cloud-Services wie das Sichern großer Datenmengen bei einem Cloud-Storage-Provider oder für das Replizieren von Daten zwischen Rechenzentren zu wenig. Auch asymmetrische und symmetrische DSL-Dienste (ADSL, SDSL) können diesen Anforderungen nicht genügen. Selbst VDSL mit Datenraten von derzeit 52 MBit/s beim Empfang (Download) und 11 MBit/s beim Versand (Upload) schafft nur in begrenztem Maße Abhilfe. Die Praxis hat gezeigt, dass Unternehmen, die Cloud-Computing-Services nutzen oder Daten zwischen Rechenzentren spiegeln, Weitverkehrsstrecken mit etwa 45 MBit/s bis 100 MBit/s Bandbreite benötigen. Doch solche Bandbreiten können sich nur wenige Unternehmen leisten. In diesem Fall können WAN-Optimierungslösungen Abhilfe schaffen. Sie stellen sicher, dass Echtzeit-Services und Cloud-Dienste auch dann nutzbar sind, wenn nur WAN-Verbindungen mit niedrigerer Bandbreite zur Verfügung stehen.
Breitbandverbindungen als Standortfaktor
Das Optimieren von WAN-Verbindungen ist auch in einem Hochtechnologieland wie Deutschland wichtig. Nach einer Studie der Universität Stuttgart, in deren Rahmen 930 Unternehmen in Baden-Württemberg befragt wurden, ist der Zugang zu High-Speed-Internet-Verbindungen für viele Firmen lebenswichtig. Demnach nutzten bereits 2009 mehr als 50 Prozent der Firmen in dem Bundesland Verbindungen mit Datenraten zwischen 6 MBit/s und mehr als 16 MBit/s. An die 24 Prozent der Firmen gaben an, dass ihr Bandbreitenbedarf bis Ende 2011 auf mehr als 16 MBit/s ansteigen wird.
Hinzu kommt, dass auch Veränderungen in der Arbeitswelt die Auslastung der ITK-Infrastruktur und der WAN-Verbindungen erhöhen. So haben laut einer Umfrage des High-Tech-Verbands Bitkom mehr als 57 Prozent der Beschäftigten in Deutschland den Wunsch geäußert, zumindest teilweise von zu Hause oder unterwegs aus zu arbeiten. Dies setzt voraus, dass Mitarbeiter auch vom Home-Office aus Zugang zum Unternehmensnetz haben.
Das Problem ist jedoch, dass diese Bandbreite derzeit nur in wenigen Regionen in Deutschland zur Verfügung steht. Dies belegt der "Breitbandatlas Deutschland" (www.zukunft-breitband.de). Demnach stehen Breitband-Services mit 16 MBit/s und mehr nur in Wirtschaftszentren zur Verfügung. Unternehmen im ländlichen Raum, die beispielsweise mehrere Standorte miteinander koppeln wollen oder Cloud-Computing-Dienste nutzen möchten, sind deshalb darauf angewiesen, die vorhandenen Schmalband-WAN-Strecken so effizient wie möglich auszunutzen. Dies lässt sich nur mittels WAN-Optimierung erreichen.