Marktautomatismus
- Hindernisse auf dem Weg zur Datenautobahn
- Hindernisse auf dem Weg zur Datenautobahn (Fortsetzung)
- Außerirdische unterwegs
- Es darf nichts kosten
- Gütesiegel als Kundenschutz
- Hindernisse auf dem Weg zur Datenautobahn (Fortsetzung)
- Keine 10-Gigabit-Apps
- Hindernisse auf dem Weg zur Datenautobahn (Fortsetzung)
- Marktautomatismus
Niethammer stimmt zu. »Es war schon immer ein Fehler, den Bedarf an Bandbreite nach den gerade absehbaren Applikationen zu bewerten.« Er schreibt die Erfahrungen aus der Vergangenheit in die Zukunft fort. Er geht für alle fünf bis sieben Jahre von einer Bandbreitensteigerung um Faktor 10 aus. Auch die IEEE denke voraus. »Dort hat man bereits begonnen, sich als Standardisierungsgremium der 40-Gigabit- und 100-Gigabit-Technologie anzunehmen.«
»Werden die 10-Gigabit-Karten auf dem Markt zu niedrigen Preisen geboten, werden die Unternehmen im Endgerätebereich danach greifen«, schätzt auch Klotzbücher ein. »Parallel werden das Angebot und der Bandbreitenbedarf über neue Applikationen einander hoch schaukeln.« Özcan stellt heraus, dass die Netzwerk- und Applikationshersteller selbst den Bandbreitenbedarf mit nach oben katapultierten, indem sie den Steuerdatenanteil in den Protokollen permanent steigerten. Er fordert von dieser Seite Protokoll-Optimierungsprozesse, um das Datenmengenproblem in den Unternehmensnetzen besser in den Griff zu bekommen. Welches Ausmaß der Steuerdatenanteil ungezügelt erreichen könnte, macht Stiel anhand eines SOA-Forschungsprojekts im Leibniz-Rechenzentrum in Garching bei München deutlich.
»Nach dem jetzigen Stand bewegt sich dieser Anteil bei 90 Prozent, bei nur noch 10 Prozent an transportierten Nettodaten.« Özcan plädiert für ein intelligenteres Netzwerkdesign, um der steigenden Datenflut entgegenzuwirken. »Mehr oder weniger hohe Datenaufkommen in den einzelnen Netzwerkbereichen sind letztlich ein Produkt der Strukturierung: zentrales oder dezentrales Konzept.« Daneben warnt er die Unternehmen davor, 10 Gigabit unreflektiert im LAN auszudehnen. »Das verschärft die Messproblematik. Zumal über die unteren Schichten hinaus auf den darüber liegenden Ebenen Fehler analysiert und eliminiert werden müssen.« Dieser Problemstellung rücke Brain Force gemeinsam mit Network General und eigenen Produkten wie Test-Access-Systems und Test-Access-Points zu Leibe.
»Jedes Projekt muss individuell angegangen werden«, meint Gerlach. Das heiße im Umkehrschluss: »Die Unternehmen müssen sich von vornherein klar über Geschäftsziele, Performance-Anforderungen und Netzdesign sein.« Und sie müssten in der längstfristigen aller IT-Investitionen, der Verkabelung, gehörig Zusatzpolster einbauen. »Denn sie können die Applikationen über mehr als eine Dekade nicht absehen.«