The Anywhere Office
„Zuhause ist dort, wo das Herz ist“, heißt ein Sprichwort. Und „Büro ist, wo das Smartphone liegt“, könnte es in Zukunft lauten. Denn viele Fachkräfte fordern zusehends flexiblere Arbeitsmodelle, um Berufs- und Privatleben besser in Einklang zu bringen. Eine Entwicklung, die von politischer Seite weiter vorangetrieben wird. Arbeits- und Sozialministerin Andrea Nahles forderte Unternehmen jüngst dazu auf, ihren Mitarbeitern den Weg zum Home-Office zu ebnen und sich von der „Präsenzkultur“ zu lösen. Die heutigen digitalen Möglichkeiten würden die Basis für mehr Orts- und Zeitsouveränität bilden. An diesem Trend müssen sich wiederum die technischen Infrastrukturen der Unternehmen messen lassen, die in ihrer Struktur oft noch zu starr sind. Ob Unified Communications- oder Cloud-Lösungen, Fernzugriff oder -wartung – verschiedene Technologien ermöglichen es, Arbeitsprozesse an beliebigen Orten zur Verfügung zu stellen und die einst zementierten Bürostrukturen aufzubrechen. 2017 dürfte die Entwicklung und auch dies Diskussion um flexiblere Arbeitsmodelle einen weiteren Sprung nach vorne machen, zum einen getrieben von der Politik und dem Wahlkampf, zum anderen von der zunehmenden Abdeckung der weißen Flecken auf Breitband-Karte Deutschlands. Gleichzeitig steigen aber auch die Herausforderungen für die IT-Abteilungen. Denn die wachsende Zahl der Endgeräte und fragmentierte Systeme dürfen nicht zum Einfallstor für Cyber-Kriminelle werden, verschiedene Standorte nicht zum Wachstum von Schatten-IT führen.
Clouds treiben die Datacenter-Branche
Ob sind nun die Zahl der im IoT vernetzen Dinge von derzeit rund 15 Milliarden Dinge bis zum Jahr 2020 verdoppeln oder verdreifachen wird, sei dahingestellt. Fest steht, dass nicht nur das zu transportierende Datenvolumen in den Netzwerken immens steigen wird, sondern auch der Bedarf an Speicherkapazität und Rechenleistung. Cloud-Infrastrukturen, zur Wahl stehen Private, Public oder Hybrid Cloud-Umgebungen, sollen die Bedarfe decken, heißt es seit Jahren. Damit das auch tatsächlich funktioniert, müssen die Datacenter-Betreiber aufrüsten. Nicht nur, dass immer mehr Rechenzentrumskapazität in den verschiedenen Verfügbarkeitsklassen Tier I bis Tier IV an den großen Internet-Knoten aufgebaut wird, Rechenzentrumskapazität wird auch zum Anwender hin verlagert. Durch das so-genannte Edge-Computing können nicht nur Kosten für die Datenübertragung reduziert werden. „Wir erwarten, dass bis zum Jahr 2019 mindestens 40 Prozent aller IoT-Daten weltweit ‚at the Edge‘, also im oder in der Nähe des vernetzten Objektes, gespeichert, verarbeitet und analysiert werden“, bestätigt Mark Alexander Schulte, Senior Consultant bei IDC. Das entlastet zum einen die Netzwerke und verbessert zum anderen die Antwortzeiten in zeitkritischen Anwendungen. So erfordert beispielsweise das autonome Fahren minimale Latenzzeiten, die in diesem Fall auch nur in Kombination mit der künftigen fünften Mobilfunkgeneration zu leisten sind.
Gleichzeitig macht es Sinn, zeitunkritische aber rechenintensive Simulationen oder auch Datenarchive an Standorte auszulagern, die ihre Services besonders kostengünstig anbieten können. So werden beispielsweise die deutsche Küstenregion mit ihrer Windenergie für RZ-Betreiber Windcloud, Island mit günstigem Strom aus Geothermie für Colocation-Anbieter Verne Global oder Norwegen mit Kühlwasser aus dem Fjord für Lefdal Mine Datacenter zu lohnenden Standorten. Letztendlich kommt es auf den jeweiligen Anwendungsfall an, welches Cloud-Modell sich an welchem Standort für das Unternehmen am besten rechnet. Multi-Cloud-Strategien helfen zudem die Ausgaben für ITK-Anschaffungen (Capex) in Bilanz-freundlichere Betriebskosten (Opex) zu wandeln. Und sie schaffen Platz für einen weitere Spezies an Diensteanbietern: Hersteller-neutrale Managed Cloud Services-Anbieter. Reinhard Waldinger, Managing Director International bei Rackspace, rechnet bei größeren Unternehmen mit bis zu sechs Clouds im Simultaneinsatz.