Zum einen muss sich die Industrie Gedanken darüber machen, wie sie die Verlustleistungsoptimierung noch weiter forciert und zum anderen ist Effizienz und damit Transparenz gefragt. Erstere ließe sich beispielsweise durch Festplatten erreichen, die sich intelligent abschalten. Eine technologische Entwicklung, die vermutlich früher oder später umsetzbar ist, meint Kaese. „Die Datenflut lässt es momentan gar nicht zu, dass die Entscheidung Effizienz gefällt werden kann“, betont hingegen Dünnweller. „Transparenz ist die absolute Grundvoraussetzung für eine kluge Entscheidung. Und diese lässt sich nur mithilfe einer passenden Datenmanagementstrategie erhalten.“
Man kommt nicht umhin, an den Daten selbst zu arbeiten. Ihre Komprimierung oder auch Vorselektion ist unbedingt notwendig. Während sich durch den Menschen generierte Daten durch die sogenannte Deduplizierung relativ gut reduzieren lassen, stößt man hier bei Maschinendaten an die Grenzen des Machbaren. Manchmal ist es aber auch Zeit, von ungebrauchten Daten Abschied zu nehmen. „Man muss sich endlich mal überlegen, wie man Daten sauber und strategisch löscht. Menschen löschen keine Daten. Nicht die eigenen und im Rechenzentrum werden sie für andere schon einmal gar nicht eliminiert“, so Dünnweller.
Leberknecht ist ebenfalls davon überzeugt, dass sich die Kapazität managen lässt. Ein Problem stellt für ihn allerdings ihre generelle Nutzung dar. Auch er sieht eine Notwendigkeit in Datenstrategien, mittels derer sich Daten aus verschiedenen Quellen vereinheitlichen lassen, um schließlich durch entsprechende Analysetechniken Erkenntnisse und Werte aus diesen Daten gewinnen zu können. Allerdings sollten gerade in Hinblick auf Datenanalysen Aufwand und Mehrwert in Relation stehen. „Das Strukturieren von Daten, und das stellt ja einen der ersten Schritte in der Verarbeitung der Datenanalyse dar, ist ja bereits ein Aufwand, der sich durch den Wert, den man hierdurch bekommt, rechtfertigen lassen muss.“