Ethernet wird in den nächsten Jahren ATM als bevorzugte Technik in Zugangsnetzen ablösen, da es einfach, schnell und kostengünstig zu realisieren ist. Provider von Ethernet-/IP-Diensten aggregieren den Datenverkehr der Kunden in den Zugangsknoten (Access Nodes), zum Beispiel DSLAMs für DSL und Wireless Access Points für WLAN oder Wimax. Über den Uplink dieser Access Nodes erreichen die Daten das Ethernet-basierte Access-Aggregation-Netzwerk (AAN). Eine Herausforderung ist dabei die Sicherung von Dienstgüte und Hochverfügbarkeit.
Der Vorteil von Ethernet liegt in der Kosten- und Bandbreiteneffizienz, dem großen
Bandbreitenbereich von Ethernet-Links und der geringen Komplexität in Bezug auf Betrieb, Management
und Wartung. Allerdings weisen Ethernet und MAC-Bridging in den derzeit standardisierten Versionen
Mängel auf, die den Einsatz als Provider-Technik einschränken. Neben der Problematik der
Bereitstellung von Dienstgüte (Quality of Service, QoS) sind weitere wichtige Faktoren die
Zuverlässigkeit der Netzknoten und Verbindungen (Links) sowie die Fehlererkennung und -behebung.
Eine Möglichkeit der schnellen Fehlerbehebung ist ein fehlertolerantes Netzdesign, also die Nutzung
redundanter Netzressourcen zur Sicherstellung des Netzbetriebs auch bei Auftreten von Fehlern im
Netzwerk. Um sowohl QoS als auch eine hohe Verfügbarkeit zu erreichen, ist eine kombinierte
Betrachtung beider Aspekte notwendig.
Bild 1 zeigt ein typisches Beispiel für ein Ethernet-basiertes AAN. Da es im Normalfall der
Netzbetreiber bereitstellt, spricht man auch von "Public Ethernet" (öffentliches Ethernet). Es muss
strengen landesspezifischen Richtlinien in Bezug auf Sicherheit, Verfügbarkeit und eben QoS
genügen. Das AAN beginnt an den Access Nodes, die die Netzteilnehmer mit dem AAN verbinden, und
endet an den Edge Nodes, den Übergängen ins IP-basierte Internet.
Alle im hellblauen Feld befindlichen Netz-elemente kommunizieren über Ethernet-Schnittstellen.
Die Access Nodes können IP-Routing-Funktionalität besitzen oder ausschließlich auf
Ethernet-Switching basieren. Als Edge Nodes dienen IP-Router. Die Anbindung der Access Nodes an das
Internet und die Aggregation des Datenverkehrs übernehmen Ethernet-Switches. Für den AAN-Einsatz
müssen diese über spezielle Funktionen verfügen.
Das Hauptproblem resultiert bei Ethernet wie auch bei IP aus der fehlenden Kontrollschicht
(Control Plane). ISDN zum Beispiel verfügt über eine solche Control Plane – der Zugriff darauf
erfolgt über den D-Kanal – und nutzt sie, um mit der Wahl der Telefonnummer jeden beteiligten
Netzknoten abzufragen, ob genügend freie Ressourcen für diese Verbindung zur Verfügung stehen. Bei
einer positiven Rückmeldung wird ein fest reservierter Kanal durch das gesamte Netz geschaltet
(explizite Ressourcenreservierung). Erst wenn dieser Kontrollvorgang abgeschlossen ist, steht die
Verbindung auf dem B-Kanal mit hoher Dienstgüte zur Verfügung.
Bei Ethernet/IP erfolgt standardmäßig keine solche explizite Ressourcenreservierung, die
Datenpakete werden einfach nach Bedarf gesendet. Somit lässt sich aber auch nicht voraussagen, wem
wann welche Ressourcen zur Verfügung stehen. Diese nicht-deterministische Vergabe der Ressourcen
verhindert die Sicherung von QoS. Doch auch wenn Ethernet und IP über keine dedizierte Control
Plane verfügen, lässt sich diese über erweiterte Managementfunktionen integrieren. Sowohl
Ethernet-Frames als auch IP-Pakete verfügen über Kontrollinformationen im Header. Neben Angaben zur
Quell- und Zieladresse bestehen Informationsfelder über den Typ und die Priorität der Daten. Der
Access Node wertet diese Informationen aus (Bild 2).
Zunächst muss sich jeder Netzteilnehmer, der einen Dienst anfordern will, beim Access Node
authentifizieren. Bei Ethernet-basierten Netzen erfolgt dies zum Beispiel über IEEE 802.1x (Port
Authentication). Nach erfolgreicher Authentifizierung kann der Teilnehmer bei einem
Service-Provider einen Dienst per Signalisierungsprotokoll anfordern, zum Beispiel über SIP
(Session Initiation Protocol) oder H.323. Verbunden mit dem Signalisierungsprotokoll oder vom
Service-Provider initiiert, startet mit dem Aufruf des Dienstes eine Ressourcenanforderung (Bild
3). Sind sowohl Dienstanforderung als auch Ressourcenbereitstellung erfolgreich, so kann der Kunde
den Dienst mit der jeweiligen Dienstgüte nutzen: Der Netz-Provider garantiert die Dienstgüte gemäß
den festgelegten Verkehrsparametern (siehe Kasten "Quality of Service").
Am Eintrittspunkt des Datenverkehrs – im Access Node – klassifiziert der Switch die Daten
zunächst und kennzeichnet sie entsprechend ihrer Wichtigkeit (Tagging). Diese Regelerstellung
(Policing) dient zur Lastkontrolle am Eingangs-Port ins Netz und kontrolliert, ob der Teilnehmer
nicht mehr Verkehr ins Netz sendet als für diesen Dienst vereinbart. Sendet er zuviel Verkehr oder
kann das Netz die Verkehrsmenge nicht abarbeiten, so lässt sich die Priorität für bestimmte Dienste
reduzieren (Re-Tagging). Anschließend erfolgt die Abrechnung des Dienstes (Billing) entsprechend
dessen Priorität. Denn von nun an ändert sich die Priorität in diesem Netzabschnitt nicht mehr, und
die Dienste mit höherer Priorität können Dienste mit niedrigerer verdrängen. Dementsprechend sind
Dienste mit höherer Priorität teurer.
Nach der Wahl des richtigen Ausgangs-Ports (Switching) sortiert der Knoten den gesamten
Datenverkehr entsprechend seiner Priorität in Queues. Das Queueing dient zur Lastkontrolle am
Ausgang. Der Scheduler sorgt für die richtige Reihenfolge beim Aussenden der Daten aus den
verschiedenen Queues. Dabei werden die Daten in den Queues mit höherer Priorität bevorzugt
behandelt.
Diese Behandlung des Verkehrs erfolgt einmalig in den Access Nodes. Optional kann sie auch in
den Edge Nodes erfolgen, um den Datenverkehr in oder aus dem Internet erneut zu überprüfen und zu
bewerten. In den Aggregation Nodes entfällt Tagging, Policing und Billing, der Rest der Prozedur
bleibt gleich. Das Queueing und Scheduling ist in diesen Netzknoten wichtig, da sie den Verkehr von
mehreren Access Nodes aggregieren und sich so die Reihenfolge der Datenpakete wieder ändern
kann.
Jeder dieser Netzknoten muss sicherstellen, dass er die Verkehrsparameter einhält, wobei jeder
Netzknoten Einfluss auf alle Verkehrsparameter hat. So kann jeder Netzknoten eine Verschlechterung
der Dienstqualität verursachen: Bei jeder Aggregation ist die Dienstgüte gefährdet. Die
Hauptursachen für QoS-Einbrüche sind:
Paketverlust durch Überlast über einen längeren Zeitraum oder fehlerhafte
Übertragung,
Verzögerung durch ungünstiges Netzdesign/Topologie,
Jitter durch kurzzeitige Überlast (Bursts) oder die Wegewahl bei Umschaltung
und Lastverteilung sowie
die Datenrate, abhängig von Policing und Überlast.
Um QoS zu gewährleisten, ist es erforderlich, dass im Netz ein Ressourcen-Controller existiert,
der das Fehlen der Control Plane kompensiert. Dieser Ressourcen-Controller verwaltet zum einen die
physikalischen Ressourcen im Netz, zum anderen die Ressourcennutzung durch die Dienste der
Netzteilnehmer und kombiniert diese miteinander. Er stellt also die aktuelle Ressourcennutzung
durch Messung und Signalisierung fest, prüft die vorhandenen physikalischen Ressourcen im Netz und
legt fest, welcher Dienst welche Ressource nutzen darf.
Zur Sicherung der Dienstgüte müssen immer genügend freie Ressourcen vorhanden sein. Ist dies
nicht mehr der Fall, muss der Access Node eine Dienstanforderung entweder ablehnen oder den Dienst
ohne QoS bereitstellen.
Die verfügbaren physikalischen Ressourcen spielen auch eine Rolle bei der Hochverfügbarkeit
(Resilience). Mit Resilience bezeichnet man die Eigenschaft der Netze, die Funktionsfähigkeit
idealerweise in 100 Prozent der Zeit zu gewährleisten und damit die beauftragten Netzverbindungen
und Dienste auch tatsächlich zu realisieren. Leider lässt sich eine Verfügbarkeit von 100 Prozent
aufgrund der beschränkten Lebensdauer der Netzelemente und Verbindungen nicht erreichen, sodass mit
Hochverfügbarkeit lediglich die Nähe zur 100-prozentigen Verfügbarkeit gemeint ist. Das
herstellerseitig oft genannte Ziel ist 99,999-prozentige Verfügbarkeit; realistische Werte liegen
zwischen 99 und 99,99 Prozent.
Die Sicherung der Hochverfügbarkeit von Zugangsnetzen erfolgt auf drei verschiedenen Ebenen des
Netzdesigns, die sich weitgehend unabhängig voneinander betrachten und optimieren lassen:
Geräteebene, Verbindungsebene und Netzebene.
Eine Lösung zur Sicherstellung der Verfügbarkeit ist die weitestmögliche Vermeidung von Fehlern
und Ausfällen in den Netzknoten oder die redundante Auslegung betriebskritischer Einzelkomponenten
innerhalb eines Geräts.
Die Verfügbarkeit muss auch auf Verbindungsebene so hoch wie möglich sein. Auch auf dieser Ebene
existieren zwei Möglichkeiten, die Verfügbarkeit zu erhöhen: Erhöhung der Sicherheit einer
Einzelverbindung oder redundante Auslegung der Verbindung.
Die beiden oben angesprochenen Ebenen bringen den signifikanten Nachteil mit sich, lediglich
explizite Redundanz bereitzustellen: Jede installierte redundante Netzressource dient zum Schutz
einer ganz bestimmten Netzressource und keiner anderen. Dies erhöht die Kosten zum Teil erheblich;
der Netzbetreiber kann aber dafür sehr gut planen und steuern, ob und welche Redundanzen er
integrieren will.
Als wesentlich flexibler erweist sich die Redundanz auf Netzebene. Dieses Konzept sieht die
Nutzung von ungeschützten Netzkomponenten und -verbindungen vor: Die gegenseitige Absicherung
erhöht die Ausfallsicherheit (verteilte Redundanz). Bei diesen Verfahren sind die Fehlererkennung
und die Steuerung der Netzressourcen essenziell für Hochverfügbarkeit. Die Fehlererkennung und
Netzsteuerung erfolgt entweder zentral durch ein Netzmanagementsystem oder autonom durch die
Netzelemente mittels eines geeigneten Protokolls.
Ein Grund für die hohe Kosteneffizienz von Ethernet ist die Fähigkeit, auf einfache und
effiziente Weise Redundanz auf Netzebene zu liefern. Ethernet lässt sich prinzipiell zu jeder
beliebigen Topologie zusammenschalten; allerdings ist es sehr anfällig für Schleifenbildung, die
bei redundanten Netzen immer auftreten. Die Netzelemente unterstützen aber in der Regel zahlreiche
Protokolle zur Schleifenvermeidung bei gleichzeitiger Bereitstellung von Redundanz. Die Tabelle
vergleicht wichtige Ethernet-basierte Verfahren hinsichtlich Einsatzzweck und Umschaltzeiten.
Ethernet-basierte Netze müssen QoS ebenso bieten wie Fehlertoleranz. Bei der Bereitstellung von
Redundanz auf der Geräte- und der Verbindungsebene ist zu beachten, dass diese explizite Redundanz
sehr kostspielig geraten kann. Die Systemhersteller sehen für viele ihrer Netzelemente Redundanz
vor; der Betreiber kann den Grad der eingesetzten Redundanz sehr gut steuern. Sehr schwierig und
kostenintensiv ist es, ein hohes Maß an Verbindungsredundanz bereitzustellen. Außerdem verhindern
die Randbedingungen häufig eine gezielte Bereitstellung von Redundanz. Die Möglichkeiten von
Ethernet für Redundanz auf Netzebene sind eine ideale Ergänzungsmöglichkeit, um Hochverfügbarkeit
zu gewährleisten.
Ein Ressourcen-Controller muss die redundanten Netzressourcen mitverwalten, damit ein
Einzelfehler nicht zum Einbruch der QoS führt. Dazu stellt er nicht alle physikalischen Ressourcen
für QoS-Dienste zur Verfügung; die übrigen Ressourcen dienen den Best-Effort-Diensten. Fällt eine
Netzkomponente durch einen Fehler aus, bleiben die Dienste mit hoher Priorität – also diejenigen,
die dem Provider den meisten Gewinn bringen – weiterhin bedienbar. Lediglich der Anteil der
Ressourcen für die Best-Effort-Dienste sinkt. So kann der Netzbetreiber trotz eines Fehlers im Netz
den Gewinnausfall minimieren.
Die im Ressourcen-Controller ablaufenden Prozesse sind allerdings komplex. Dies erfordert
insbesondere bei großen Netzen leistungsstarke Rechner. Die Fraunhofer-Einrichtung für Systeme der
Kommunikationstechnik ESK arbeitet an Lösungen zur Optimierung dieser Verfahren. Im Fokus stehen
autonome, verteilte Prozesse, die in den Netzelementen direkt ablaufen. Außerdem können diese die
Redundanzverfahren direkt mit einbeziehen, sodass die Ausfallsicherheit ein integraler Bestandteil
dieses Verfahrens ist.