Service-Level-Agreements erfüllen

Hochlastbetrieb in Datennetzen

14. Mai 2014, 9:35 Uhr | Charles Ferland, IBM SDN Global Sales & Business Development Manager, IBM / Klaus Pieper, IBM Business Unit Executive System Networking Europe, IBM

Fortsetzung des Artikels von Teil 3

Flachere Netze

Software-Defined-Networking führt durch die Entkopplung der Data- und Control-Plane zu einer flexibleren und besseren  Steuerung der Netzwerke bis hin zur automatischen Allokierung der Netzwerkressourcen durch die Applikationen.
Software-Defined-Networking führt durch die Entkopplung der Data- und Control-Plane zu einer flexibleren und besseren Steuerung der Netzwerke bis hin zur automatischen Allokierung der Netzwerkressourcen durch die Applikationen.
© IBM

Moderne Server stellen neue Anforderungen an das Systemnetzwerk Fabric, um einen unterbrechungs- und latenzfreien Datenfluss zu erreichen. Dieser Verkehr läuft immer stärker in „Ost-West“-Richtung, um die Maschine-Maschine-Kommunikation zu ermöglichen, und zwar im Gegensatz zum „Nord-Süd“-Verkehr, der herkömmliche Client-Server- und web-basierte Applikationsumgebungen kennzeichnet.

TRILL (Transparent-Interconnection of Lots of Links) entwickelt sich dabei als Standard-basierter Ansatz zur Implementierung von großen, flachen Layer-2-Netzen mit durchsatzstarken, beinahe latenzfreien Top-of-Rack-Switches. TRILL verbindet Server, Peripheriegeräte und Speicher in einer umfassenden „Fat Tree”-Struktur ohne blocked Links und Extra-Hops sowie mit den kürzesten und effizientesten Pfaden von Link zu Link. Darüber hinaus ist TRILL hervorragend dazu geeignet, verlustfreie Netze für konvergierte Daten- und Speichernetze mit Fibre-Channel over Ethernet (FCoE), iSCSI oder NAS zu implementieren. Equal-Cost-Multi-Path- (ECMP) Routing ist ein Layer-3-Konzept für non-blocking Netzwerke, das in Hochleistungsrechnerumgebungen immer populärer wird. Neben dem Trend zu flachen Netzen für skalierbare Performance beobachten die Betreiber von Rechenzentren, gerade wenn sie neue Rechenzentren einrichten oder umfassende Erweiterungen der verfügbaren Kapazität vorbereiten, ganz genau die konvergierten Netze.

Netzwerke konvergieren

Entscheidend ist für sie, ob und wie ein einziges konvergiertes Daten- und Speichernetz die I/O-Anforderungen von Applikationen und Workloads bewältigen und gleichzeitig Komplexität und Administrationsaufwand drastisch verringern kann. Inzwischen können konvergierte Netzwerklösungen eingesetzt werden, die leicht zu konfigurieren und zu administrieren sind und dieselbe Ethernet-Netzwerkinfrastruktur nutzen, um die Komplexität des Rechenzentrums und die Betriebskosten zu senken. Der neue Data-Center-Bridging- (DCB-)Standard ermöglicht eine 10-GBit/s-Ethernet- Verbindung für gleichzeitigen Daten- und Speicherverkehr, wobei die jeweiligen Properties erhalten bleiben.

Normalerweise werden Server in Rechenzentren mit unterschiedlichen Adaptern und Kabelinfrastrukturen an Daten-, Speicher- oder Server-to-Server-Netze angeschlossen. Schon oft wurden unterschiedliche Switching-Fabrics gefordert – Ethernet, Fibre-Channel oder Infiniband. Heute kann ein 10-GBit/s-Ethernet-Server ein einziges Kabel für alle Verkehrsarten bieten. Die Konsolidierung einer Ethernet-Fabric reduziert die Anzahl der im Rechenzentrum benötigten Adapter und Kabel dabei erheblich und sorgt für eine drastische Senkung des Stromverbrauchs und der Gesamtkosten für die Administration. Dateizugriffsprotokolle wie NFS und CIFS laufen normalerweise über Ethernet. Diese Protokolle sehen bereits Performancesteigerungen bei 10-GBit/s-Ethernet.

IP-basierte Speicherlösungen sind leicht zu konfigurieren und zu administrieren und nutzen dieselbe Ethernet-Netzwerkinfrastruktur, um die Komplexität des Rechenzentrums und die Betriebskosten zu senken. Früher war das Ethernet ein Best-Effort-Netzwerk, das Pakete verlieren oder in falscher Reihenfolge abliefern konnte, wenn das Netzwerk stark belastet war. Dies führte zu Neuübertragungen und Ausfallzeiten. Neue Standards haben zu besseren, verlustfreien Ethernet-Protokollen geführt. Diese Standards werden unter dem Begriff Data-Center-Bridging (DCB) zusammengefasst.

Dazu gehören:

  • Priority-Flow-Control (IEEE 802.1Qbb),
  • Congestion-Notification (IEEE 802.1Qau),
  • Enhanced-Transmission-Selection        (802.1Qaz) sowie
  • DCB-eXchange-Protocol (DCBX).

Verlustfreies Ethernet ermöglicht schnelle Ethernet-Verbindungen, die Daten- und Speicherverkehr gleichzeitig unterstützen, wobei die jeweiligen Properties erhalten bleiben. Neue DCB-fähige Ethernet-Switches zur Unterstützung von SCSI, NFS und FCoE-Speichernetzen profitieren von der besseren Performance und Zuverlässigkeit eines verlustfreien Ethernet-Fabric.

High-Performance-Computing-Applikationen müssen hinsichtlich ihres Preis-Leistungs-Verhältnisses hohen Ansprüchen gerecht werden. Mit den DCB-Erweiterungen und dem Normvorschlag RDMA over Converged-Ethernet (RoCE) kann das Ethernet die für HPC-Cluster notwendige, nahezu latenzfreie Inter-Prozess-Kommunikation zur Verfügung stellen, was es zu einer echten Alternative zu Infiniband macht. Mit diesen Vorteilen bietet das Ethernet genau die richtigen Eigenschaften, um zum einzigen im Rechenzentrum benötigten Switching-Fabric zu werden und den „Single Wire“ für Daten, Speicher und Clusterbildung zur Verfügung stellen.

Hohe Energieeffizienz

Neben effizientem Management, automatisierter Virtualisierung und Workload-optimierter Performance gehören Stromverbrauch und Klimatisierung zu den größten aktuellen Herausforderungen für Betreiber von Rechenzentren. Neue Umweltauflagen und steigende Energiekosten zwingen Administratoren dazu, sich auf grüne Initiativen zu fokussieren. Aktuelle Schätzungen besagen, dass sich die Klima- und Verteilerkosten im Rechenzentrum auf zwei Watt pro jedem, durch die Systeme im Rechenzentrum verbrauchten, Watt belaufen. Gerade deshalb kommt der Entscheidung für maximal effiziente Netzwerkkomponenten eine wesentliche Bedeutung zu. In dem Maße, in dem Clouds auf Tausende von Servern und darüber hinaus anwachsen, wird die Stromersparnis pro Komponente zu einer erheblichen Budgetentlastung.

Völlig neue Abläufe im Datacenter

Durch die Auswirkungen von Virtualisierung, Konvergenz, Cloud-Computing, optimierten „Big-Data“ und Workloads verändern sich die Abläufe im Rechenzentrum erheblich. Das Netzwerk folgt dabei der bereits fortgeschrittenen Entwicklung im Server- und Storage-Bereich, führt sie weiter und öffnet den Weg hin zu einem  einheitlichen Rechenzentrum, das sich über ein einzelnes Tool managen lässt und alle Vorteile hinsichtlich Automatisierung, Skalierbarkeit und Kosteneffizienz ermöglicht.

Anbieter zum Thema

zu Matchmaker+

  1. Hochlastbetrieb in Datennetzen
  2. Die Herausforderungen des Hochlastbetriebs
  3. Management vereinfachen
  4. Flachere Netze

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu IBM Deutschland GmbH SD GS 86

Weitere Artikel zu IBM Deutschland GmbH

Weitere Artikel zu IBM Deutschland GmbH Geb. 53 Ebene 4

Weitere Artikel zu Virtualisierung

Weitere Artikel zu Server, Datacenter

Matchmaker+