Anforderungen an die Infrastruktur

Server-based Computing: Schlank und schnell

18. Februar 2008, 14:00 Uhr |

Fortsetzung des Artikels von Teil 2

Fazit


Für langsame Leitungen sollte auch der Serialization-Delay (die Zeit, die benötigt wird, um ein Paket aus der Queue heraus zu bekommen) berücksichtigt werden.

Bei einem 1500 Byte großen FTP-Paket sind das auf einer 64-kBit/s-Verbindung immerhin rund 187 ms. Da aber die Round-Trip-Time (RTT) für interaktiven Terminal-Datenverkehr 150 ms (75 ms in jede Richtung) nicht überschreiten sollte, sollten die Pakete beispielsweise auf 256 oder 512 Byte fragmentiert werden, damit keine Delay-Probleme entstehen.

Diese Funktion wird im allgemeinen als »Link Fragmentation & Interleaving« bezeichnet. Um eine Fragmentierung zu vermeiden, kann auch die MTU-Size für den WAN-Link angepasst werden, da eine Fragmentierung lediglich auf langsamen WAN-Verbindungen und nicht Ende zu Ende erfolgen sollte.

Innerhalb der letzen Jahre hat sich ein stetig wachsender Markt für WAN-Optimierungs-Systeme entwickelt. Diese Systeme – zumeist als Appliance oder Add-On-Software/-Hardware für WAN-Router erhältlich – greifen auf unterschiedlichen Ebenen in die WAN-Übertragung ein und können so Applikationen oder Dateiübertragungen um bis zu mehreren 100 Prozent beschleunigen.

Im Falle der Thin-Client-Kommunikation kann man beispielsweise auf die folgenden Weisen optimierend eingreifen:

  • TCP-Optimierung: TCP-Sessions werden lokal terminiert, Flows über das WAN werden im Hintergrund optimiert, so dass im Idealfall für Applikation und Anwender der Eindruck entsteht, auf einem gemeinsamen lokalen Netz zu sein. Die TCP-Initial-Windows werden vergrößert, damit der Client die TCP-Slow-Start-Phase schneller verlässt und in die Congestion-Avoidance-Phase geht, um schneller einen höheren Durchsatz zu erreichen. Die TCP-Window-Kapazität von optimierten TCP-Verbindungen wird vergrößert, um den Durchsatz zu erhöhen. Ein verbessertes Congestion-Handling ermöglicht es, Retransmits effizienter durchzuführen und so wieder schneller in Bereiche höheren Durchsatzes zu kommen.
  • Vermeidung redundant übertragener Daten, für wiederholte auftauchende Daten müssen gegebenenfalls nur Anweisungen, was mit diesen auf der Gegenseite zu geschehen hat, übertragen werden. Der Rest wird dort hinzugefügt.
  • Verbesserte Kompressions-Algorithmen, auch in Verbindung mit Algorithmen zur Vermeidung redundant übertragener Daten: Damit wird die Bandbreite, die von einzelnen TCP-Flows benötigt wird, verringert. Verschiedene Hersteller von Thin-Client-Lösungen haben auch eigene Kompressions- und zusätzliche Verschlüsselungsverfahren implementiert, die den Wirkungsgrad der Optimierungs- und Erkennungsmechanismen beeinflussen können.

Auf der Seite der Applikations-Server trägt die Kommunikationsinfrastruktur entscheidend zum Erfolg einer Server-Based-Computing Lösung bei. Performance, Verfügbarkeit, Skalierbarkeit und nicht zuletzt Techniken für die Virtualisierung von Rechenleistung, Storage- und Netzwerkelementen gehören hier zu den wichtigsten Schlagworten.

Diese Infrastruktur muss sicherstellen, dass herkömmliche Server via Gigabit-Ethernet oder 10-Gigabit-Ethernet angebunden werden können. Storage sollte beispielsweise via Fibre-Channel oder iSCSI erreichbar sein und die Vernetzung von Bladeservern via Gigabit-Ethernet oder 10-Gigabit-Ethernet oder in HPC-Umfeldern mittels Infiniband ermöglicht werden.

So kann der benötigte Applikations-Mix dynamisch im Data-Center bereitgestellt und den Benutzern auf den Thin-Clients via LAN oder – unter Beachtung der oben erörterten WAN-Design-Richtlinien – verfügbar gemacht werden, ganz gleich, ob die Bereitstellung dieser Dienste im eigenen Unternehmen stattfindet oder über einen Application-Service-Provider geleistet wird.

Thomas Boele ist Technical Marketing Manager bei Cisco Systems.


  1. Server-based Computing: Schlank und schnell
  2. Kontrollmechanismen im Netz erforderlich
  3. Fazit

Jetzt kostenfreie Newsletter bestellen!

Matchmaker+