Kern und Ursache dieses Mythos bilden die hochskalierten In-Memory-Lösungen von Anbietern wie Oracle und SAP. Mit Marketingbudgets in zweistelliger Millionenhöhe wurde vielen Kunden die SAP-Lösung HANA als erste und einzige Wahl für Big-Data angepriesen. Tatsächlich ist HANA jedoch eine teure aber zielgerichtete Lösung dort, wo die Geschwindigkeit der Datenverarbeitung zur Entscheidungsfindung in Echtzeit im Vordergrund steht.
HANA ist pro Terabyte etwa 10.000-mal teurer als Hadoop. Daher hat SAP Hadooop mittlerweile mit HANA kombiniert, um die Investition im Bündel attraktiver zu machen. Denn Hadoop punktet auch in Situationen, wo Datenvolumen, Datenvielfalt sowie die explorative Suche nach Zusammenhängen in den Daten im Vordergrund stehen.
Mit einer Hadoop-Lösung können Unternehmen jeder Größe eine preisgünstige Landebasis für ihre gesamten Daten anlegen und für zunehmende Datenmengen skalieren. Zum Einstieg reicht bereits ein Budget von 20.000 Euro, die Kosten für eine Großlösung liegen im niedrigen sechsstelligen Bereich. Wer eine Million Euro investiert, kann ein Cluster in Petabyte-Größe erwerben.