Im voll in Fahrt gekommen Telekommunikationsdreisprung, bei dem parallel Sprache und Daten, Festnetz und Mobilfunk sowie Internet und Telekommunikation um die Wette konvergieren, müssen sich Carrier und Service-Provider permanent neu orientieren. Gewinner sind diejenigen, die sich flexibel auf die Situation einstellen. Die dafür erst in Ansätzen genutzte Basis bilden Netze der nächsten Generation (Next Generation Networks, NGNs), wie sie derzeit allerorts entstehen.
Vor allem Anforderungen aus dem Privatkundenumfeld treiben heute die Ansprüche an die
Carrier-Infrastruktur nach oben: Neben dem nach wie vor aktuellen Peer-to-Peer-Tausch von Film- und
Musikdateien sorgt der immer beliebtere Abruf von Multimediaangeboten à la Myspace, Youtube und Co.
für steigendes Verkehrsaufkommen in den Carrier-Netzen. Auch Triple-Play, wie Provider die
gleichzeitige Übertragung von Telefonie, Internet und IP-TV über eine Access-Leitung nennen, gilt
als einer der massivsten Bandbreitentreiber der nächsten Jahre. Hinzu kommen Anwendungen zur
Kommunikation zwischen Mensch und Maschine sowie zwischen Maschinen (also ohne
Benutzerbeteiligung), die heute erst in Ansätzen existieren.
Ein in Teilen Asiens schon realisiertes Beispiel kommt aus der Medizintechnik: Kleine, mit
Bluetooth-Modulen ausgestattete Sensoren überwachen vitale Körperfunktionen wie Blutdruck, Puls,
Atemfrequenz etc. Bei längerer Anomalie der gemessenen Werte oder Schwellwertüberschreitung setzt
das Bluetooth-Modul ein Signal zu einem Mobiltelefon ab, das wiederum unmittelbar und automatisch
ein ärztliches Überwachungszentrum alarmiert. In vielen weiteren Bereichen wird es nach
Einschätzung von Branchen-Insidern Applikationen geben, die ohne Zutun eines Benutzers die
Kommunikation aufnehmen. Obschon die Datenmenge hier verhältnismäßig gering ist: Die Zahl aktiver
Verbindungen soll sich damit dramatisch erhöhen. Dazu kommen weitere Steigerungen aus der
Konvergenz von Festnetz und Mobilfunk: Ob WLAN, Wimax oder UMTS – der von mobilen Endgeräten
erzeugte Datenverkehr wird einhelligen Prognosen zufolge dramatisch zunehmen – mit entsprechender
Mehrlast auf den Backhaul-Netzen der Carrier.
Im Geschäftskundensegment nimmt das Datenaufkommen zwischen Zweigstellen und Zentrale dramatisch
zu. Ein Hauptgrund dafür ist die (Re-)Zentralisierung von Ressourcen in konsolidierten
Rechenzentren; bei dieser Architektur greifen Filialen via WAN auf Anwendungen, Services und Daten
in der Zentrale zu. Als weiteren treibenden Faktor nennen Marktforscher die Wirkung der zunehmend
genutzten IT-/TK-Dienstleistungen: Fast jede IT- und TK-Aufgabe eines Unternehmens gibt es
inzwischen als Service, der sich von einem externen Dienstleister beziehen lässt. Immer häufiger
sind Leistungen wie Backup oder Software "as a Service" zu buchen. Beides sind Beispiele für extrem
bandbreitenintensive Operationen, zumindest wenn die Server- und Storage-Pools beim Provider
gehostet werden.
"Seit einigen Jahren verdoppelt sich der Verkehr im Internet alle sechs bin neun Monate", so Uwe
Nickel von Level 3 Communications. Die zentrale Herausforderung für Carrier und Service-Provider
besteht darin, den Internetverkehr skalierbar und ökonomisch abbilden zu können. In diesem Sinne
begegnen die Provider den steigenden Datenlasten einerseits mit effizienteren Transportservices im
Backbone, andererseits mit dem Ausbau von Glasfasernetzen im Backbone, aber auch in Richtung
Anwender – idealerweise bis zu einem Übergabepunkt direkt in deren Gebäuden (Fiber to the Building,
FTTB, Fiber to the Home, FTTH).
Die Rentabilität von Glasfaseranschlüssen ist direkt proportional zur Bevölkerungsdichte,
weshalb solche Lösungen bislang vorwiegend in extrem dicht besiedelten asiatischen Metropolen zu
finden sind. In Deutschland sieht es dagegen noch sehr dünn aus – nur etwa eine Handvoll (meist
regionaler) Carrier wie Arcor, Hansenet, Helinet, HL, M-Net, Netcologne und Versatel beschäftigen
sich hier zu Lande mit FTTH und FTTB.
Weitaus brisanter ist eine Vorstufe von FTTH: Fiber to the Curb (Faser bis zum Straßenrand).
Einschlägige Carrier und Provider kämpfen derzeit um einen Platz für ihre Glasfasern in den
Kabelverzweigern (KVz) der Deutschen Telekom – den berühmten "grauen Kästen" am Straßenrand. Die
Brisanz rührt daher, dass nur ein Platz im KVz genügend Kundennähe bietet, um über VDSL (Very High
Bit-Rate DSL) echte Triple-Play-Services liefern zu können – inklusive Fernsehen in HD-Qualität.
Der Regulierer hat der Telekom jedoch bislang entgegen allen Ermahnungen seitens der EU in Sachen
VDSL weitgehende Exklusivität eingeräumt, sodass alle anderen Anbieter bis dato außen vor
bleiben.
Für die Wettbewerber der DTAG kommt es sogar noch schlimmer: Mit dem Ausbau des Glasfasernetzes
bis in die Verzweiger erübrigt sich für die Telekom an vielen Stellen der Unterhalt eines
Hauptverteilers – bislang die Anlaufstelle alternativer Carrier für eine Netzkopplung. Selbst diese
Brücke droht nun einzureißen. Viele Provider würden sich am liebsten sofort von der Telekom
emanzipieren, hätten sie die entsprechenden Mittel. Der Netzausbau auf eigene Faust, wie von
manchen fast trotzig angekündigt, wird sich jedoch nur auf wenige Knotenpunkte beschränken können.
Einige hoffen, mit der Weiterentwicklung von Funktechniken wie WLAN, Wimax oder UMTS neue
Ansatzpunkte für den breitbandigen Weg zum Anwender zu finden.
Bei der effizienteren Bewegung von Daten auf dem Transportnetz konkurrieren das IP-basierende
MPLS (Multi-Protocol Label Switching) und das aus dem Carrier-Ethernet-Lager stammende Provider
Backbone Transport (PBT) um die Gunst der Provider. Von MPLS ist eine transportoptimierte Version
entstanden: T-MPLS (Transport-MPLS). PBT wiederum ist derzeit unter dem Namen Provider Backbone
Bridging Traffic Engineering (PBB-TE) auf dem Weg durch die Normierungsgremien und soll sich
künftig in Sachen Skalierbarkeit von Diensten, Zuverlässigkeit, Servicequalität und -management
sowie TDM-Unterstützung profilieren. Die Lager bei den Providern sind gespalten, einige finden
jedoch klare Worte: "IP gehört die Zukunft und damit auch MPLS", so Andreas Wespe, Teamleiter IP
bei BCC. "PBT ist nach wie vor Punkt-zu-Punkt-orientiert und eignet sich daher nicht für
Triple-Play-Projekte."
Fixed-Mobile Convergence (FMC) interpretieren die Provider noch sehr unterschiedlich. Die
vollständige Verschmelzung der TK- und Mobilfunknetze auf IMS-Basis (IP Multimedia Subsystem)
praktizieren noch die wenigsten. BT ist da in Deutschland mit "BT Corporate Fusion" eher die
Ausnahme. Der Carrier setzt hier das "duale VoIP" mit WLAN auf dem Betriebsgelände und GSM überall
sonst in die Tat um. Die entsprechenden Dual-Mode-Geräte liefern über das zugrunde liegende IMS
gemeinsame Applikationen und Gesprächsfunktionen. Die Mitarbeiter greifen über ein einziges
Endgerät unabhängig vom Standort auf Voice-Mail, das unternehmensweite Telefonverzeichnis,
Telefonkonferenzen und andere Kommunikationsdienste zu. Durch die Umleitung mobiler Anrufe ins
Festnetz und durch geringere Komplexität der erforderlichen Infrastruktur sollen Unternehmen zudem
ihre Kommunikationskosten senken können.
Arcor macht derzeit mit seinem neuen Service "Central Phone" das Handy zum Bestandteil der
Nebenstellenanlage. Die in Zusammenarbeit mit Nortel aufgesetzte Lösung kommt als Managed Service
und soll zum einen bewirken, dass die Mitarbeiter eines Unternehmens immer unter einer
einheitlichen Nummer erreichbar sind, zum anderen sollen sie auch über ihr Mobiltelefon alle
Telefonfunktionen nutzen können, die ihre lokale Nebenstelle bietet. Bei den Mobilfunk-Providern
reduziert sich FMC heute im Wesentlichen noch auf Tariffragen, sei es als Kombiangebot für Festnetz
und Mobilfunk oder als "Homezone"-Variante mit Festnetzkonditionen an bestimmten Standorten.
Wenn es um Mobilität geht, stehen Funktechniken hoch im Kurs. Provider-seitig denken die meisten
hier in erster Linie an den Mobilfunk, der sich mit kombinierten Sprach-/Datenangeboten in
Konvergenz übt. WLAN hat sich in erster Linie bei der Inhouse-Vernetzung etabliert – von
Provider-Seite sind WLANs in Deutschland vor allem via "Hot-Spots" populär. In anderen Ländern gibt
es Provider, die WLAN auch als großflächige Access-Technik im Stadtbereich anbieten. Wimax gewinnt
zwar global sicher an Fahrt, in Deutschland sind jedoch auch 2008 bislang kaum nennenswerte
Entwicklungen zu sehen. Viele Besucher des "Mobile World Congress 2008" im Februar in Barcelona
hatten hohe Erwartungen, was marktreife Wimax-Angebote betrifft – wurden aber, wie schon in den
Vorjahren, größtenteils mit Prototypen und "Produktstudien" vertröstet – vom großen "Wimax-Jahr
2008", wie es Brancheninsider in der zweiten Hälfte des letzten Jahres ausgerufen hatten, keine
Spur.
Im Grunde sind bei den meisten Providern weder WLAN noch Wimax wirklich beliebt – haben sie doch
über viele Jahre hinweg schon zu viel in "klassische" GSM-/UMTS-Mobilfunktechnik investiert. Das
gilt in besonderem Maße für Deutschland, wo dieses Engagement mit Milliardeninvestitionen allein
für die Lizenzen begann. So ist es wohl ausgerechnet die Entwicklung im Mobilfunk, der die weitere
Ausbreitung von Konkurrenztechniken auf Netzbetreiberebene ausbremst. Grund dafür sind zum einen
die großen Fortschritte in der HSxPA-Technik (High Speed Up-/Downlink Packet Access), die
UMTS-Verbindungen auf derzeit bis zu 7,2/1,8 MBit/s (Down-/Upstream) hochkatapultieren, zum anderen
aber auch neue UMTS-"Mikroorganismen", die dem Netz quasi von der Basis her unerwartet Vorschub
leisten. Das Stichwort hier lautet Femtozellen, eine Art WLAN auf UMTS-Basis.
Die Ähnlichkeit zu WLAN liegt in der Art der Einrichtung als lokaler Access-Point in Gebäuden
sowie in der betreiberseitigen Anbindung via Modem beziehungsweise Modem-Router an einen
DSL-Anschluss. Mobilfunkgespräche und Datenverkehr in einer Femtozelle laufen also letztlich über
den DSL-Anschluss, ähnlich wie bei WLAN Datenverkehr und (IP-)Festnetztelefonie. Allerdings
funktioniert dies bei Femtozellen nur, wenn der Provider es explizit unterstützt – ein "
Unterschieben" der Mobilfunkgespräche in das DSL-Netz des Festnetzbetreibers ist nicht möglich. In
der Praxis heißt das: Eine Femtozelle ist nur realisierbar, wenn der DSL-Anschluss vom
Mobilfunkanbieter kommt. Dann sorgt die Femtozelle auch für eine reibungslose Übergabe zwischen dem
öffentlichen Mobilfunknetz des Handyvertragspartners und dem privaten Netz. Die Nutzung ist mit
jedem UMTS-fähigen Handy beziehungsweise Laptop oder PC möglich – zwischen vier und acht pro
Femtozelle.
Für größere Unternehmen gibt es im Prinzip ähnliche Lösungen schon seit geraumer Zeit in Form
von "Picozellen". Es handelt sich hier um relativ klobige und teure "Klein-Basisstationen" (etwa
die Größe eines Tower-PCs – die großen Basisstationen beim Provider haben das Format eines
schlanken Kleiderschranks). Sie sind aufwändig einzurichten und zu managen sowie ausschließlich
über Individualvereinbarungen mit einem Provider zu bekommen.
Im Gegensatz dazu könnten die Femtozellen neuer Bauart, wie beispielsweise auf dem Mobile World
Congress in Barcelona zu sehen, zum echten Massenprodukt werden. Handling, Größe und das gesamte "
Look-and-Feel" sollen mit WLAN vergleichbar sein. Anders als bei WLAN haben die Mobilfunkanbieter
damit ein Instrument an der Hand, das sich hervorragend zur Bindung und Neugewinnung von Kunden
eignet. Das ist auch der Grund dafür, dass jüngste Marktstudien UMTS-Femtozellen in Ländern mit
ausgeprägter Mobilfunkinfrastruktur klar im Aufwind sehen – insbesondere im Vergleich zu Wimax. Zu
den wichtigsten Herstellern im Bereich UMTS-Femtozellen zählen Alcatel-Lucent, Ericsson, Motorola,
NEC, Nokia Siemens Networks und Ubiquisys. Analysten des Marktforschungsinstituts Ovum
prognostizieren den Femtozellen eine steile Karriere: Bis 2010 sollen allein in Westeuropa 12
Millionen Femtozellen installiert sein – ein Jahr später sogar schon 17 Millionen.