Zum Inhalt springen
Viel Potenzial für Consulting

In-Memory als Baustein

Autor:Werner Fritsch • 13.12.2012 • ca. 0:50 Min

»Fast alle Data Warehouses leiden unter Performance-Problemen.« Marcus Dill, Geschäftsführer von Mayato (Foto: Mayato)
»Fast alle Data Warehouses leiden unter Performance-Problemen.« Marcus Dill, Geschäftsführer von Mayato (Foto: Mayato)

Verarbeitung im Arbeitsspeicher sei eine Option, um mit geeigneten Algorithmen die Performance zu optimieren. »Bei reiner In-Memory-Verarbeitung bewegen wir uns heute maximal im einstelligen Terabyte-Bereich«, schränkt der Experte jedoch ein. Das sei für viele Fälle ausreichend. Big-Data-Szenarien können allerdings Dimensionen erreichen, die um den Faktor 1.000 größer sind. »Arbeitsspeicher ist im Augenblick günstig. Deshalb sind In-Memory-Ansätze interessant, aber eine ausschließliche Lösung für Big Data stellen sie nicht dar. Das ist nur ein Baustein,« erläutert Welker.

»In-Memory-Appliances wie Hana von SAP, Exalytics von Oracle oder Netezza von IBM sind inzwischen in der Lage, sehr große Datenmengen zu handhaben, allerdings ist der Preis meist viel höher«, meint auch Dill. Hana war ursprünglich als Beschleuniger in SAP-basierten Warehouse-Lösungen gedacht, doch: »Das hilft zwar kurzfristig, wird aber langfristig teuer.« Deshalb sei es nicht sinnvoll, alles ins Hana-System zu packen. Für sehr große Datenmengen sei SAPs Warehouse-Angebot ohnehin nicht geeignet. Der ebenfalls nicht billige Klassiker sei hier Teradata. Data Warehouses werden nach Dills Erfahrungen allerdings immer komplizierter, etwa durch Aggregate und Redundanzen, um am Frontend noch erträgliche Antwortzeiten zu bekommen. »Fast alle Data Warehouses leiden unter Performance-Problemen«, resümiert Experte Dill.