In der Praxis mittelständischer Unternehmen stößt die Speicherung und Nutzung noch auf einige Hindernisse. Sie wird häufig mit der - komplexen und langwierigen - Entscheidung für oder gegen eine Auslagerung in die Cloud verknüpft. Das kann zu Verzögerungen führen.
Die Speicherung großer Datenmengen erfordert auch ein Umdenken, da sie den Gepflogenheiten widerspricht. Zum einen durch ihre scheinbare Ziellosigkeit: Es gehört gerade zur Charakteristik von Big Data, dass zum Zeitpunkt der Speicherung noch nicht klar ist, wofür sie einmal genutzt werde - die Zusammenhänge zwischen den Daten müssen ja erst aufgedeckt werden. Zum anderen ist es die Art der Daten: Neben Kennzahlen, deren Relevanz für das jeweilige Geschäft sofort erkennbar ist, speisen sich diese riesigen Datenmengen zum größten Teil aus dem ständigen Grundrauschen, das jede digitale Transaktion als Nebenprodukt zwangsläufig erzeugt. Die Rede ist von unzähligen Status- und Transaktionsdaten, Protokolldaten von Wartungen. Solche polystrukturierten Daten wurden in der Vergangenheit zumeist gelöscht, sobald sie nicht mehr benötigt wurden - vor allem auch, um Speicherplatz und somit Kosten zu sparen.
Für Big Data gilt jedoch: Was heute irrelevant erscheint, kann morgen wichtig sein ("Today's noise is tomorrow's information"). Es ist also grundlegend, sämtliche Daten zunächst zu speichern und eine eigene Datenbasis aufzubauen. Damit sind IT-Abteilungen auch für die Zukunft gerüstet, denn wie die eingangs erwähnte Gartner-Studie auch zeigt, gehen inzwischen 31 Prozent aller der Big Data-Initiativen in den befragten Unternehmen von den Fachbereichsleitern aus (gegenüber 25% im Vorjahr). Mit wachsenden Anforderungen aus den Geschäften ist also zu rechnen.