Areg Alimian: Die sogenannte Time to Market spielt beim Rollout neuer Anwendungen und Dienste eine immer größere Rolle – oder einfacher ausgedrückt: Jeder will der Erste sein. So werden neue Architekturen mit virtuellen Umgebungen sowie hybriden Clouds auf dem Reißbrett geplant und implementiert, um anschließend zu erfahren, dass Unternehmenskunden sich über einen Qualitätsverlust beim VoIP-Dienst und Online Gamer über lange Ping-Zeiten beschweren. Dieses Warten auf Kundenbeschwerden ist einer der drei grundsätzlichen Möglichkeiten, sich über die Leistungs- und Widerstandsfähigkeit seines Netzwerkes zu informieren, aber sicher nicht die erfolgversprechendste. Stillhalten, bis eine Hackerattacke das Netzwerk lahmlegt, ist die zweite Option, aber auch deren Popularität hält sich in Grenzen. Die dritte Option heißt „testen“.
Doch nicht alle Testmethoden sind geeignet, die Verfügbarkeit von Diensten und Anwendungen zu gewährleisten. Ansätze zur Validierung von Performance und Sicherheit, denen keine realistischen Annahmen über Anwendungslasten und Angriffstechniken zugrunde liegen, führen schnell zu trügerischer Sicherheit. Nur wer von realistischen Voraussetzungen ausgeht, wird zuverlässige Aussagen über das Verhalten des Netzwerks und der Sicherheitsinfrastruktur in der realen Welt erhalten.
Realistisch bedeutet dabei unter anderem, dass Big Data und vor allem das IoT bereits in naher Zukunft zu deutlich höheren Belastungen führen werden, und dass Pipe Saturation-Attacken dies schon heute wirkungsvoll erledigen. Ob und wie eine Architektur diese Lasten bewältigen wird, lässt sich nur herausfinden, indem jede einzelne Komponente, die für die Bereitstellung von Diensten und Anwendungen benötigt wird, unter den härtesten zu erwartenden Lastbedingungen getestet wird. Daher mein Tipp an die Betreiber von Rechenzentren: Führen Sie Ihr Netzwerk selbst an die Grenzen der Belastbarkeit, bevor es andere tun.