3. Interne Netzwerkanbindung der Server (Server-Racks)
Wichtig ist eine redundante Anbindung der Server-Racks (Server) an das Core-Netzwerk. Dadurch lassen sich Ausfälle eines Core-Switches abfangen und somit die Verfügbarkeit der Server netzwerkseitig gewährleisten. Der Einsatz eigener Netze für Backup sowie Management ermöglicht eine saubere, physikalische Trennung der Datenströme.
4. Externe Netzwerkanbindung des Rechenzentrums
Essenzieller Bestandteil für den externen Datenaustausch ist eine Netzwerkanbindung, die redundant aufgebaut ist. Optimal ist eine zusätzliche Anbindung, die durch einen weiteren Netzbetreiber mit einer alternativen Wegeführung der Kabel oder auf drahtlosen Übertragungswegen, wie Richtfunk oder Satellit, realisiert wird.
5. Schutz durch Firewalls
Neben den oben genannten physikalischen Aspekten sollten Unternehmen zusätzlich auf Netzwerkebene den Einsatz von Firewall-Systemen beachten. Diese sollten in der Lage sein, redundant das Rechenzentrum sicher an das Internet anzubinden. Dazu müssen die Firewalls über mindestens Multi-Gigabit-Datendurchsatz verfügen. Für eine zukunftssichere Architektur, die eventuell auch interne Netzwerksegmente absichert, sollten dabei Datendurchsätze jenseits von 30 GBit/s möglich sein.
6. Schutz von Cloud-Diensten
Datacenter-Betreiber, die ihren Kunden Cloud-Dienste und/oder virtuelle Server anbieten, sollten die Infrastruktur im Rechenzentrum nicht nur mit Gateway-Firewalls absichern. Es empfiehlt sich zusätzlich der Einsatz von Firewalls, welche die virtuelle Umgebung schützen. Solche Systeme unterstützen die Vorteile von Virtualisierung und lassen sich nahtlos in die vorhandene Umgebung integrieren. Dies ist beispielsweise dann wichtig, wenn der Anwender über das Virtual-Private-Network (VPN) auf die Cloud-Dienste oder Server zugreifen möchte.
Marcus Henschel, Country Manager D.A.CH. Clavister AB