Nicht viel anders verhält es sich bei der Nutzung von Anwendungen in einer Cloud. Der einzige Unterschied zu dem eben genannten Szenario aus Nutzerperspektive ist, dass nun auch alle Anwender in der Unternehmenszentrale über das WAN auf entfernte Applikationen und Daten zugreifen müssen. Latenz, Protokollineffizienz und Bandbreitenmangel bleiben erst einmal.
Um entfernte Anwendungen – ob in der Cloud oder im zentralen Unternehmensrechenzentrum – zu beschleunigen, gibt es verschiedene Ansätze. Da viele verteilte Unternehmen den Internetverkehr ihrer Außenstellen zunächst in die Zentrale leiten und erst dort über ein Gateway mit Content-Filter in das Internet entlassen, macht dieser Verkehr auf den WAN-Strecken anderen Anwendungen zunehmend Konkurrenz bei der Nutzung von Bandbreite. Je mehr Cloud-basierte Anwendungen zum Einsatz kommen, umso mehr verschärft sich dieses Problem.
Ein Ansatz ist daher, alle Außenstellen mit einem lokalen Internetzugang auszustatten und so die WAN-Strecken um diesen Verkehr zu entlasten. Voraussetzung ist dafür allerdings, dass sich in den Niederlassungen dieselben Richtlinien zur Internetnutzung durchsetzen lassen wie beim zentralistischen Ansatz. Gleichzeitig muss sichergestellt sein, dass auch im dezentralen Internetverkehr Phising-Attacken, Malware, Viren, Trojanern etc. keine Chance haben. Hierfür sind in den Außenstellen zentral administrierbare sichere Internet-Gateways notwendig. Dies bedeutet zwar zunächst Investitionen in neue Systeme, bietet jedoch auch zahlreiche Chancen.
Denn der schnellste Datenverkehr ist der, der überhaupt nicht übertragen wird. Kommen am lokalen Internet-Gateway beispielsweise Caching-Mechanismen zum Einsatz, die redundanten Datenverkehr eliminieren, beschleunigt dies den Zugriff auf entfernte Anwendungen aus Nutzerperspektive erheblich – egal ob die Anwendungen im Firmen-Datacenter oder in der Cloud sitzen. Dasselbe gilt auch für die Kompression von Daten vor ihrer Übertragung.