Die Anforderungen an heutige Datacenter sind enorm. Insbesondere, wenn man weiß, dass die Mehrzahl der Rechenzentren noch mit „veralteter“ Technologie arbeiten, welche sich mit den derzeitigen, geschweige den künftig zu bewältigenden Herausforderungen schwer tun. Bis 2015 soll sich laut Analysten zudem die Anzahl der Server verzehnfachen, so dass bis zu 70 Prozent des gesamten Datenverkehrs in Rechenzentren zwischen Servern stattfinden wird. Aber wie soll ein „veraltetes“ Netzwerk solch eine riesige Datenflut bewältigen?
993 war aus mehreren Gründen ein denkwürdiges Jahr: Michael Jordan beendete seine unglaubliche Karriere, PLO-Anführer Yassir Arafat und der israelische Premierminister Yitzhak Rabin unterzeichneten nach 45 Jahren Krieg das Friedensabkommen, und Intel brachte seinen ersten Pentium-Prozessor auf den Markt. Außerdem kam in diesem Jahr erstmals der Begriff „Spam“ auf, nachdem ein Virus einen Artikel an 200 Newsgroups gleichzeitig verschickte. Kaum zu glauben, dass in diesem Jahr nur ein Prozent aller Kommunikationsprozesse über das Internet abgewickelt wurden und Innovationen wie Smartphones und Tablets nur aus Sci-ence-Fiction-Filmen bekannt waren. Ja, die Zeiten haben sich geändert.
Verglichen mit vor zwanzig Jahren bereichern Geräte, die auf heutiger Rechenzentrums-Infrastruktur basieren, jeden einzelnen Aspekt unseres Lebens. Bereits Kinder nutzen Geräte wie Smartphones und Tablets, die über mehr Speicher- und Rechenkapazität verfügen als der modernste Server der 90-er Jahre. Und mehr als 34 Prozent der Weltbevölkerung, immerhin über 2,5 Milliarden Menschen, haben Zugriff auf das Internet. Auch aus der Geschäftswelt ist das Internet nicht mehr wegzudenken: Cloud-Dienste und IP-basierte Kommunikationswege gehören mittlerweile zum Alltag. Die Anforderungen an das Rechenzentrum von heute sind also enorm. Dennoch: Rechenzentren arbeiten oft mit veralteter Technologie, die neue Herausforderungen nicht bewältigen kann. Bis 2015 soll sich laut Analysten die Anzahl der Server verzehnfachen, so dass bis zu 70 Prozent des gesamten Datenverkehrs in Rechenzentren zwischen Servern stattfinden wird. Aber wie soll ein veraltetes Netzwerk solch eine riesige Datenflut bewältigen?
Zunächst dürfen Rechenzentren nicht länger mit einer „Heftpflaster“-Mentalität betrieben werden, bei der das Maximum aus der Infrastruktur herausgeholt wird. Vielmehr müssen Innovationen gefördert werden, um auch auf zukünftige Anforderungen vorbereitet zu sein. Aber wie kann das Rechenzentrum der Zukunft konkret verwirklicht werden?
Unternehmen und deren IT-Abteilungen müssen zunächst erkennen, warum Rechenzentrums-Netzwerke zu einem entscheidenden Faktor geworden sind. Dafür gibt es drei Gründe: Der erste ist Virtualisierung. Noch vor zwei Jahrzehnten wurden Anwendungen auf unterschiedlichen Servern eingesetzt und verfügten über ihren eigenen Speicher. Diese einfache Konstruktion stieß jedoch rasch an ihre Grenzen. Je mehr Anwendungen gebraucht wurden, umso mehr Server und Speicher wurden angeschafft und der Platz im Rechenzentrum wurde knapp. Und mit zunehmendem Platzmangel war es nicht möglich weitere Server oder Anwendungen zu installieren. Deshalb begannen IT-Abteilungen Anwendungen und Geräte zu virtualisieren. Die Virtualisierung erforderte jedoch eine sehr viel smartere und widerstandsfähigere Netzwerkstruktur, um den neuen Ost-West-Verkehr genauso zu bewältigen wie den bisherigen Nord-Süd-Verkehr.
Zweitens wird das Netzwerk aufgrund schnellerer Verbindungen, größerer Kapazität und strengerer Sicherheitsregelungen immer mehr gefordert. In Unternehmen ist allerdings ein sicheres und zuverlässiges Netzwerk von größter Bedeutung, gerade beim Stichwort mobiles Arbeiten. Allerdings: Noch nie gab es eine bessere 24h-Verfügbarkeit und Widerstandsfähigkeit als heute. Der Grund hierfür ist die Einführung von Cloud-basierten Diensten in Unternehmen durch CRM-Tools wie Salesforce.com oder durch Outsourcing des gesamten IT-Bedarfs an externe Hosting-Provider.
Der dritte Grund ist, dass moderne Rechenzentren heute mehr Nutzer, mehr Anwendungen und mehr Daten verarbeiten müssen, was höhere Flexibilität und Skalierbarkeit erfordert.