Moderne Anwendungen sorgen dafür, dass Unternehmen mit immer größeren Mengen an Daten hantieren müssen. Zahlreiche neue Technologien befeuern diesen Trend zusätzlich. Herkömmliche Speichersysteme stoßen deshalb schnell an ihre Grenzen. Software-defined Storage kann in vielen Fällen Abhilfe schaffen.
Prognosen legen nahe, dass in den nächsten Jahren ein exponentielles Datenwachstum auf uns zukommt. Eine Studie von IDC und Seagate aus dem Jahr 2017 sah die globale Datenflut bis zum Jahr 2025 auf 163 Zettabyte anwachsen. Ausgeschrieben hätte diese Zahl 21 Nullen und sie entspricht einer Milliarde Terabyte. Aktuelle Ergebnisse von Statista und Handelsblatt gehen basierend auf den Zahlen des Jahres 2018 von einem Wachstum auf 175 Zettabyte bis ins Jahr 2025 aus. Der letzteren Studie zufolge könnte die globale Datenmenge bis 2035 sogar auf kaum vorstellbare 2.142 Zettabyte steigen.
Die genannten Zahlen legen dar, dass immer mehr Daten verarbeitet, übertragen und gespeichert werden. Die durch Laptops, Smartphones und andere Geräte generierten Daten stellen dabei nicht die Spitze des Eisbergs dar. Technische Innovationen wie etwa Künstliche Intelligenz (KI), virtuelle Realität (VR) oder Internet of Things (IoT) sorgen zusätzlich für einen massiven Anstieg des Datenvolumens. Sogar Mittelständler kommen heutzutage leicht auf ein Petabyte an Daten pro Jahr. Geht man von 25 bis 30 Prozent jährlicher Zuwachsrate aus, ist das eine konservative Schätzung. Dass man angesichts dieses Umstands mit althergebrachten Ansätzen zur Datenspeicherung in den meisten Fällen nicht mehr auskommen wird, ist über jeden Zweifel erhaben.
Um mit dem Datenwachstum Schritt zu halten und weil die Hardware eine bestimmte Lebensdauer hat, müssen traditionelle Unternehmensspeicher in regelmäßigen Zyklen ausgetauscht werden. Hier steht also jedes Mal ein kompletter Umzug aller Daten an. Der Aufwand einer solchen Migration sollte nicht unterschätzt werden, aber noch kritischer ist vermutlich das Problem der Vorausplanung. Bei der Implementierung traditioneller Lösungen müssen sich Unternehmen direkt entscheiden, wie viel Kapazität sie in den nächsten Jahren benötigen.
In der Vergangenheit ließ sich das anhand der bisherigen Entwicklung relativ gut prognostizieren. Inzwischen sieht das anders aus. Es braucht also einen Speicher, der Flexibilität bietet.
Hinauf in die Wolken?
Ein Weg aus dem Speicherdilemma scheint in die Cloud zu führen. Auch die eingangs erwähnten Studien legen ein großes Wachstum dieses Marktes nahe. Doch die Cloud-Lösungen der großen Anbieter sind nicht unbedingt der Speicherort der Wahl für sensible Daten. Einem innovativen Mittelständler kann man keinen Vorwurf machen, wenn er die Konstruktionszeichnungen des Produkts, das seine Weltmarktführerschaft bedeutet, lieber im eigenen Haus behält. Das Problem ist durchaus real, wenn man den juristischen Gegensatz zwischen US Cloud Act und der europäischen Datenschutzgrundverordnung bedenkt. Im Zweifelsfall dürfte ein in den USA ansässiges Unternehmen eher dem Ersteren folgen.
Auch das nachfolgende Beispiel zeigt, dass sich die Cloud nicht als Speicherort für alle Arten von Daten eignet: Die Bodycams der Polizeibeamten generieren enorme Datenmengen, für deren Speicherung die Behörde in der Anfangszeit nicht über genügend interne Ressourcen verfügt hat. Aus diesem Grund wurden die Daten auf einer Cloud-Lösung von Amazon gespeichert. Kritiker halten das für ein kaum kalkulierbares Risiko.
Die angeführten Beispiele sollen kein Plädoyer gegen die Cloud sein. Aufnahmen von Polizeieinsätzen und sensible Geschäftsgeheimnisse haben in der Cloud allerdings nichts zu suchen.
Software-defined Storage ermöglicht eine flexible Erweiterung der Speicherkapazität und gleichzeitig eine effizientere Ausnutzung des Speichers. Darüber hinaus werden sensible Daten sicher verwahrt. Das sind schlagende Argumente, um es bei der Suche nach einem geigneten Storage zu erwägen.