Die neuen Chancen mit intelligenten Produktionssystemen und Automatisierungskonzepten – das gilt für Mensch-zu-Mensch-, Machine-to-Machine- und Mensch-zu-Maschine-Kommunikation gleichermaßen – stellen die Kosten-Nutzen-Rechnungen für die IT in Produktions- und Fertigungsunternehmen allerdings vor eine harte Bewährungsprobe: Um die neuen Abläufe mit den Daten aus der eigenen Entwicklungsabteilung, von Maschinen und unterschiedlichen Marktteilnehmern abbilden zu können, ist nicht selten ein Paradigmenwechsel in der Planung und Einführung von IT-Infrastrukturen nötig. Klassische Rechenzentrumsinfrastrukturen aus dem Fertigungsumfeld mit ERP- (Enterprise Resource Planning), PLM- (Product Lifecycle Management), PIM- (Product Information Management) oder MES- (Manufacturing Execution System)-Systemen aus Client-Server-Tagen sind solchen verteilten Datenverarbeitungsstrategien kaum gewachsen. So fehlt es eigenen Datacentern oft an der benötigten Leistung für die Möglichkeiten des High-Performance-Computings oder der Echtzeitverarbeitung, zumindest aber an den Fähigkeiten, Gerätedaten systemübergreifend zu verwalten und zu analysieren, um Reaktionen in den Systemen von Marktteilnehmern auslösen zu können.
Noch gravierender zeigt sich das technische Defizit in den eigenen vier IT-Wänden im Zusammenhang mit dem Datenwachstum. Bereits heute platzen viele On-premise-Infrastrukturen in puncto Speicherbedarf aus allen Nähten: Mit IT-getriebenen Innovationen wie dem Internet of Things, der Industrie 4.0 oder der künstlichen Intelligenz steht eine echte Datenexplosion erst noch bevor. So soll das weltweite Datenvolumen bis 2020 je nach Prognose um den Faktor 3 bis 10 auf bis zu 44 Zetabytes anwachsen – pro Monat. Grundlage für diese Einschätzungen bildet die Annahme, dass weite Teile der Wirtschaft ihre Datenspeicherung und Datenverarbeitung in den nächsten
Rechenzentrumsbetreiber stehen aktuell vor einer Vielzahl von Herausforderungen: Einerseits wird der Gürtel enger geschnallt, andererseits lässt die Digitalisierung das Datenaufkommen explodieren und die Anforderungen an die Rechenleistung steigen. Viele Unternehmen können die daraus resultierenden Folgen für die Stromversorgung und die Sicherheit schlichtweg nicht oder zumindest nicht kosteneffektiv bewältigen. Datenverluste, Informationslücken und
Das Outsourcing der Daten an zentralisierte Rechenzentren – die sogenannte Colocation – kann in solchen Fällen einen guten und effizienten Lösungsansatz darstellen: Um kostspielige Arbeitsausfälle zu vermeiden, werden dort besonders kritische Daten immer in Datacentern mit mehrfacher Stromabsicherung (Tier 3) gespeichert. Bei der Standortauswahl der Rechenzentren fließen Faktoren wie Zustand und Zuverlässigkeit des dortigen Stromnetzes und die Skalierbarkeit automatisch in die Entscheidungsfindung ein. Besonders bei High-Performance-Computing (HPC)-Anwendungen müssen IT-Entscheider die Verfügbarkeit, Stabilität, Zuverlässigkeit und Skalierbarkeit der Energieinfrastruktur als Risikofaktoren berücksichtigen.
Aber nicht nur das: Das Bewusstsein der Anwender für das Thema Nachhaltigkeit steigt rasant. Der energieeffiziente Betrieb von Rechenzentren spielt eine wichtige Rolle. Bei der enormen Geschwindigkeit der weltweiten Digitalisierung kann Energieeffizienz nicht die einzige Stellschraube sein – denn der Energieverbrauch wird stetig wachsen. Umso wichtiger ist also ist die Nutzung von Strom aus 100 Prozent erneuerbaren Energien im Datacenter der Zukunft.
Christian Kallenbach ist Director of Business Development für Europa bei Verne Global