Meinung: Im Datenwürfel gefangen?
Meinung: Im Datenwürfel gefangen?. Nun haben wir es schwarz auf weiß: Die Performance von Business-Intelligence-Lösungen entscheidet über deren Erfolg im Unternehmen. Zu diesem Schluss kommt Nigel Pendse in der fünften Ausgabe seiner Olap Survey. Die Umfrage hat im Wachstumsmarkt ...

Meinung: Im Datenwürfel gefangen?
Nun haben wir es schwarz auf weiß: Die Performance von Business-Intelligence-Lösungen entscheidet über deren Erfolg im Unternehmen. Zu diesem Schluss kommt Nigel Pendse in der fünften Ausgabe seiner Olap Survey. Die Umfrage hat im Wachstumsmarkt Business Intelligence (BI) einige Beachtung gefunden, da sehr viele Anwendungen auf dem Online Analytical Processing (Olap) beruhen. Wie eine performante Lösung aussehen könnte, beleuchtet diese Studie jedoch nicht.
Die Bedeutung von BI wird künftig noch zunehmen. So zeigt etwa eine aktuelle Studie der Marktforschungsfirma IDC zur Lage in Deutschland, dass die wachsenden und immer komplexer werdenden Informationsmengen in den Unternehmen dringend analytische Software erfordern. Hinzu kommen der steigende Wettbewerbsdruck und gesetzliche Vorschriften. In fast allen Branchen ist daher die schnelle Analyse von großen Datenmengen inzwischen unerlässlich, um innerhalb von Sekunden verborgenes Wissen über Prozesse und Maßnahmen ans Tageslicht zu befördern.
Olap-Werkzeuge erfüllen diese Anforderungen heute nur sehr bedingt. Denn nur mit viel Aufwand und hohen Kosten lassen sich flexible Analysen damit realisieren. Mit modernen Hardware-Voraussetzungen, namentlich 64 Bit fassenden Arbeitsspeichern, ergibt sich zumindest theoretisch die Chance, eine neue Ära in der Datenanalyse einzuläuten. Bisher mangelt es an Software, die die höhere Leistungsfähigkeit voll nutzen kann. Zudem sind Lösungen, mit denen zahlreiche Anwender große Datenvolumina schnell und einfach auswerten können, selten. Das belegen die am häufigsten genannten technischen Probleme in der Pendse-Studie. Dies wird auch deutlich, wenn man die Olap-Tools genauer unter die Lupe nimmt.
Unterscheiden lassen sich der multidimensionale und der relationale Olap-Ansatz. Mit M-Olap-Produkten lassen sich bei hoher Abfragegeschwindigkeit Analysen aus verschiedenen Blickwinkeln ausführen. Das Problem dabei ist, dass nur auf gigabytegroße Ausschnitte (so genannte Datenwürfel) mit 10 bis 15 Attributen zugegriffen werden kann. Wenn sich die Rahmenbedingungen für die Analyse ändern oder sich neue Fragestellungen ergeben, muss mit großem Zeitaufwand ein neuer Datenwürfel, der einen anderen Ausschnitt umfasst, aufgebaut werden.
R-Olap-Ansätze haben zwar den Vorteil, dass Daten im Terabyte-Bereich ausgewertet werden können. Jedoch muss sich der Anwender bei größeren Datenvolumina auf lange Antwortzeiten einstellen. Will er die Rahmenbedingungen verändern oder Attribute hinzufügen, erfordern auch diese Werkzeuge eine zeitaufwändige Neumodellierung.
Dies bedeutet, dass es mit der heute gängigen Analysesoftware nicht möglich ist, einen großen Datenbestand mit einer Vielzahl von Attributen schnell auszuwerten. Die Realität in den Betrieben erfordert aber genau das: Manager brauchen innerhalb von Sekunden Analyseergebnisse, um zeitnah angemessene Aktionen einleiten zu können.
Wie sieht Software zur Datenanalyse aus, die die gravierendsten technischen Limitierungen der herkömmlichen Olap-Software überwindet? Eine Antwort ist der Ansatz des hybriden Olap. Letztlich hat dieser jedoch nicht den Durchbruch geschafft, da er dem Denken in Datenwürfeln verhaftet geblieben ist und seine Leistungsfähigkeit nicht überzeugt.
Eine Alternative besteht darin, auf Datenwürfel zu verzichten. Einen Ansatz bieten Mustererkennungsverfahren, durch die große Datenbestände um ein Vielfaches reduziert werden können, ohne statistisch Relevantes zu verlieren. Dem Endanwender würde dies verborgen bleiben. Er könnte weiterhin mit einer Olap-ähnlichen Oberfläche arbeiten. Heute verfügbare Frontends würden statt auf Würfel auf das durch die Mustererkennung erzeugte komprimierte Datenformat zugreifen. Das komprimierte Abbild der Datensätze wäre dabei so klein, dass die Auswertung hauptspeicherbasiert mit PCs oder Notebooks erfolgen könnte. So ließe sich eine höhere Dimensionalität bei gleichzeitig besserer Performance unterstützen. Innovative Software dieser Art, die Kompressionsverhältnisse von 1000 zu 1 ermöglicht, hat namentlich das in München ansässige Start-up-Unternehmen Panoratio entwickelt. Das Marktforschungshaus Gartner hat es dafür unlängst zum Cool Vendor in Sachen Datenmanagement gekürt.
Außerdem sollte BI-Software im 21. Jahrhundert die Fähigkeit besitzen, Änderungen in nicht betrachteten Attributen mitzuberechnen und auffällige Änderungen von sich aus anzuzeigen. Algorithmen aus Statistik und Künstlicher Intelligenz, wie sie im Data Mining verwendet werden, können dabei helfen. Nicht zuletzt sollten Entscheider überall und jederzeit schnell auf die für sie relevanten Unternehmensdaten zugreifen können. Und natürlich muss die Software dabei intuitiv zu bedienen und mit der Unternehmens-IT-kompatibel sein.
Georg Rybing ist CEO der Panoratio Database Images GmbH