Eine neue Informationsinfrastruktur

Netz der Zukunft ist generisch

25. März 2010, 12:44 Uhr | Willi Duetsch/wg

Wir stehen vor einem Modellwechsel im Bereich der IT. Dieser hat bereits begonnen und wird sich im Laufe des nächsten Jahrzehnts vollständig durchsetzen. Eine neue Informationsinfrastruktur (NII) wird die Art und Weise der Informationsverarbeitung und -speicherung ebenso wie die Kommunikation grundlegend verändern.

NII beschreibt ein offenes, skalierbares, einfaches, sicheres und automatisiertes Netzwerk, das
dem enormen Angebot an Internet-Diensten gerecht wird. Die neue Infrastruktur wirkt sich auf alle
Beteiligten und die gesamte Wertschöpfungskette aus: Endbenutzer (Verbraucher, Unternehmen und
Behörden), Lieferanten (Netzbetreiber und Content Provider), Anbieter von Technik für die
Informationsverarbeitung, -speicherung und Netzwerkinfrastruktur sowie Lieferanten von Geräten und
Applikationen für Endanwender. Letztere sind die Hauptnutznießer. Viele der Argumente für die NII
basieren auf den folgenden drei Faktoren: einer exponentiellen Leistungssteigerung der
Informationssystemen der großen Bedeutung maßgeschneiderter "Any to Any"-Kommunikation und der
entscheidenden Rolle der Automation.

Wie frühere Umstellungen erfolgt auch dieser Modellwechsel aus Gründen der Wirtschaftlichkeit.
Anders als früher ist allerdings ein zusätzlicher Faktor von Bedeutung: die Bedürfnisse der
Endanwender. Dadurch erhält der Wechsel eine zusätzliche Dringlichkeit, das positive Feedback wird
die vollständige Implementierung wahrscheinlich beschleunigen.

Für die NII-Entwicklung sind folgende fünf Punkte von Bedeutung: ein zunehmend leistungsfähiges
globales IP-Netz; die Möglichkeit, maßgeschneiderte Services in großen Rechenzentren (Mega Data
Centers, MDCs) bereitzustellen; Computer- und Netzwerktechniken, die auf neue Weise
zusammenarbeiten; verbesserte mobile Datendienste und die Virtualisierung der Infrastruktur.

Die wohl größte Rolle spielt dabei ein leistungsfähiges Netz mit "Any to Any"-Connectivity, das
praktisch jederzeit und überall verfügbar ist. Seine Funktionalität ermöglicht leistungsfähigere
Informationsverarbeitung und -bereitstellung. Ohne ein solches Netzwerk wäre es schwer, dies an
zentralisierten Standorten zu konsolidieren, um die Verarbeitung effizienter auszuführen und die
Sicherheit und Zuverlässigkeit zu erhöhen. Dass es sich um ein generisches Netz handelt, ist für
die effiziente Investitionsplanung und das positive Feedback enorm wichtig: Sind mehr Benutzer und
RZs mit dem Netz verbunden, steigt sein Wert ebenso wie der Nutzen der Rechenzentren und die
Produktivität der Endanwender. Das Netz muss zwar noch in vielerlei Hinsicht verbessert werden,
aber es ist bereits leistungsfähig genug für den Modellwechsel.

Bedürfnisse der Benutzer

Endanwender fordern einen zuverlässigen, sicheren und geräteunabhängigen Zugriff auf
Informationen und Informationssysteme, jederzeit und überall. Am besten lassen sich diese
Anforderungen erfüllen, wenn so wenig Funktionalität wie möglich lokal auf den Endgeräten
implementiert ist. Hier sollten nur die Betriebsfunktionen vorhanden sein, alles andere sollte in
zentralisierte Einrichtungen (MDCs) ausgelagert werden. Insbesondere darf auf einem Gerät keine
Zustandsinformation gespeichert sein (zustandslose Geräte, Stateless Devices). Zustandsbehaftung
(Statefulness) behindert Verwaltung, Betrieb und Zuverlässigkeit eines Geräts vermutlich mehr als
alle anderen Aspekte. Deshalb dürfen von den Geräten generierte individuelle Daten nur so kurz wie
möglich lokal gespeichert werden, danach sollten sie in ein MDC hochgeladen werden, wo sie
langfristig sicher und zuverlässig gespeichert sind.

Dieses neue Modell der Datenverarbeitung unterscheidet sich vom aktuellen aufwändigen Modell,
bei dem langfristige, unveränderliche Zustände weitgehend unabhängig vom Netzwerk und von
zentralisierten Ressourcen auf Endgeräten gespeichert werden. Im neuen Modell sind Netzwerk und
zentralisierte Ressourcen unabdingbar. Das neue Modell wird erst möglich, wenn die Netzwerkleistung
einen bestimmten Schwellenwert überschreitet und man zentralisierte Einrichtungen implementieren
kann, die große Benutzerzahlen unterstützen. In absehbarer Zukunft müssen Endgeräte möglicherweise
immer noch kurze Zeiträume ohne Netzanbindung überbrücken. Es handelt sich also um ein
Thin-Client-Modell – aber mit dem bedeutenden Unterschied, dass der Zustand auf dem Endgerät nur
eine gecachte Kopie einer Master-Kopie ist, die zentral vorliegt.

Drei Kernelemente

Als Basismodell umfasst NII drei Elemente: Clients, MDCs und ein globales Hochleistungsnetzwerk,
über das die Verbindungen laufen. Clients, ob Mensch oder Maschine, sind die Benutzer der NII und
greifen per Funk oder Kabel jederzeit und von überall aus auf Informationen zu. Die Infrastruktur
auf Anwenderseite ist auf das Minimum reduziert, das nötig ist, um Performance und Zuverlässigkeit
zu gewährleisten. Die restliche Infrastruktur wird in MDCs verschoben, in riesige, zentralisierte
Einrichtungen, in denen die langfristigen Informationen des NII gespeichert und Services geliefert
werden. Der Zugriff muss mit einem bisher nicht erreichten Niveau an Qualität, Zuverlässigkeit,
Sicherheit und Wirtschaftlichkeit möglich sein.

Das globale High-Performance-Netz verbindet Clients untereinander, Clients mit MDCs und MDCs mit
MDCs. Als universelles Paketvermittlungsnetz auf IP- und MPLS-Basis stellt es Verbindungen
jederzeit und überall bereit. Es steht allen Anwendungen zur Verfügung, eine Spezialisierung wie in
der Vergangenheit ist nicht nötig. Insbesondere nutzen Mobilfunk- und Festanbindung abgesehen von
der Funkstrecke eine gemeinsame Plattform. Der Mobilfunk ist damit nur ein Attribut des
einheitlichen Netzes, allerdings ein sehr wichtiges.

Die Architektur des globalen High-Performance-Netzes besteht aus fünf Elementen: MDCs, Mega-POPs
(Points of Presence), Mega-COs (Central Offices), Access-Netzwerken und Endgeräten. Sie beruht auf
vier Grundprinzipien: umfassende Vernetzung, eine möglichst generische Infrastruktur, maximale
Zentralisierung und schließlich größtmögliche Automation. Diese Prinzipien leiten sich aus den
genannten Grundsätzen ab. Nur wenn alle Objekte miteinander verbunden sind, kann der Nutzen der
Objekte und der Netzwerkinfrastruktur maximiert werden. Dies gilt unabhängig davon, ob es sich bei
den verbundenen Objekten um Personen, Ressourcen, Informationen, Orte, Anwendungen, Geräte oder
Sonstiges handelt.

Investitionskosten lassen sich minimieren, wenn alle Anwendungen eine gemeinsame Infrastruktur
nutzen. Früher waren aufgrund der Leistung, Zuverlässigkeit und Kosten verschiedene Infrastrukturen
erforderlich. Beispiele: das TDM-Netzwerk für Sprachübertragungen, das terrestrische
Übertragungsnetzwerk für Fernsehsignale und die Funk-TDM-Infrastruktur für Mobiltelefone. Doch
heute ist es erstmals möglich, eine Informationsstruktur zu entwickeln, die für alle Zwecke
geeignet ist. Ein Hauptziel der oben beschriebenen Architektur ist es, eine funktionale Aufteilung
der globalen Infrastruktur zu finden, die sich für alle Anwendungen eignet. Ein weiteres Ziel ist
es, grundlegende Bausteine zu definieren, die in den einzelnen skalierbaren Einrichtungen
eingesetzt werden können: Mega-CO, Mega-POP und Mega-RZ.

Maximale Zentralisierung soll die Betriebskosten minimieren, indem alle unveränderlichen
Zustände an einem logischen Ort, dem Mega-Rechenzentrum, gespeichert werden. Liegen Zustände in
einem verteilten System mit Milliarden von Komponenten verteilt vor, ist die Verarbeitung nicht nur
schwierig, sondern nahezu unmöglich. Die Zentralisierung des Zustands an einem einzigen Ort
hingegen bietet die beste Methode zur Automatisierung der Verwaltung und des Betriebs. Dies senkt
die Kosten und erleichtert die automatisierte Verwaltung. Zuverlässigkeit und Nutzen von
Anwendungen steigen, indem man Anwendungen in Mega-Rechenzentren verlagert, während zugleich neue
interessante Anwendungen entwickelt werden.

Basisanforderungen

Eine offene, netzwerkübergreifende Softwareplattform ermöglicht die direkte Programmierung
mehrere Netzwerkebenen. Ziel ist höherer Komfort, Wirtschaftlichkeit und eine schnelle
Markteinführung. Die Softwareplattform baut auf drei Elementen auf: einem einheitlichen
Netzwerkbetriebssystem, einer offenen Netzwerk-Anwendungsplattform und einem integrierten
Netzwerk-Client.

Mit Lösungen, die auf neuen Generationen von Netzwerkprozessoren aufbauen, werden die Netzwerke
skalierbarer, und sie unterstützen dynamisch und gleichzeitig mehr Anwender, Services und
Bandbreite für umfassende geschäftliche, private und mobile Services in einem einzigen Netzwerk.
Darauf aufbauende Routing-Lösungen dringen damit in Durchsatzbereiche von mehreren TBit/s vor, bei
gleichzeitig deutlicher Senkung des Energieverbrauchs.

Mit der Kombination aus einer einheitlichen und offenen Softwareplattform für Routing,
Switching, Security und Services sowie hochskalierbarer Hardware lassen sich die
Netzwerkarchitekturen für Rechenzentren und Firmenstandorte konsolidieren und damit der Aufbau und
Betrieb vereinfachen. Unternehmen können so ihre Infrastrukturen gemeinsam und sicher nutzen sowie
Cloud-basierende Services bereitstellen und darauf zugreifen.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+