Business Intelligence zwischen Erneuerung und Ausbreitung (Fortsetzung)
- Business Intelligence zwischen Erneuerung und Ausbreitung
- Business Intelligence zwischen Erneuerung und Ausbreitung (Fortsetzung)
- Business Intelligence zwischen Erneuerung und Ausbreitung (Fortsetzung)
- Business Intelligence zwischen Erneuerung und Ausbreitung (Fortsetzung)
Geschäftsprozesse im Blick
Viel gesprochen wird derzeit über Geschäftsprozesse. So erkennt Experte Chamoni hinter Ansätzen wie BPM oder BAM unterschiedliche Ausprägungen der Grundidee, bewährte Analysetechniken für die Geschäftsprozesse fruchtbar zu machen. Die etwa von dem Data-Warehouse-Spezialisten NCR Teradata häufig beworbenen Echtzeitmöglichkeiten seien jedoch oft nicht praxisrelevant. Die Gartner-Leute sind anderer Meinung. Schon für nächstes Jahr erwarten sie, dass Echtzeitanwendungen verbreitet sein werden. Außerdem würde sich auf Business Intelligence beruhende Kollaboration in den nächsten Jahren zu einem wichtigen Technologietrend entwickeln. Für Meta-Mann Bitterer ist BPM bereits heute ein signifikanter Trend. Für die Zukunft spekuliert er ergänzend über Analytic Process Controlling, das das operative Geschäft mit Hilfe von Service Level Agreements und Agenten überwachen könnte.
Schon vor Jahren haben Experten die Möglichkeit aufgezeigt, die per Datenanalyse gewonnenen Einsichten unmittelbar in den operativen Bereich zurückfließen zu lassen. Doch auch heute stehen solche Closed-Loop-Szenarien noch am Anfang. Gleichwohl hält Chamoni entsprechende Architekturen weiterhin für zukunftsträchtig. Beim Data Mining hinkt die Wirklichkeit in den Betrieben den technischen Möglichkeiten ebenfalls hinterher. Seit Jahren sind ausgereifte Werkzeuge von IBM, SAS und weiteren Anbietern verfügbar, um unbekannte Zusammenhänge in Datenbeständen zu entdecken, doch eingesetzt wird die anspruchsvolle Technologie bis heute nur wenig. »Data Mining ist kein Renner geworden«, resümiert Chamoni. Das Potential sei weiterhin vorhanden. Den vorgefertigten analytischen Applikationen, die vor einigen Jahren von Herstellern stark beworben wurden, sagt der Wirtschaftsinformatiker indes keine große Zukunft voraus: »So etwas eignet sich nur für Spezialbereiche wie Controlling oder Risikomanagement.«
Datenqualität oft unzureichend
Jahrelang wogte der Streit zwischen den Befürworten kleiner Abteilungslösungen und denen, die eine zentrale Datenbank als Data Warehouse mit einer einzigen Version der Wahrheit für erforderlich hielten. Inzwischen hat sich die zweite Fraktion weitgehend durchgesetzt, meint Chamoni. Jedenfalls in der Theorie: In der Praxis bleibt eine allumfassende konsistente Datensammlung wohl meist ein unerreichtes Ziel, und viele Anwendungen sind weiterhin auf die Anforderungen einzelner Abteilungen ausgerichtet. In den meisten Unternehmen werde Business Intelligence noch nicht strategisch, sondern lediglich taktisch eingesetzt, kritisieren darum die Experten von Gartner. Isolierte Data Marts in diversen Abteilungen sind nach wie vor weit verbreitet.
Nicht zuletzt deshalb haben die Unternehmen in Sachen Datenqualität weiterhin zu kämpfen: Die anspruchsvollsten Backend-Architekturen und die benutzerfreundlichsten Frontend-Tools helfen nicht weiter, wenn die Daten nicht in gutem Zustand sind. Leider ist dies häufig der Fall: Inkonsistenzen sind an der Tagesordnung, Bereinigungen bleiben ein mühseliges Kramen in Details. Unter dem Begriff Metadatenmanagement versuchen Softwarehersteller wie Hyperion und SAP, wenigstens einen Kernbestand der Daten, nämlich Stamm- und Produktdaten, einheitlich zu formalisieren und dadurch automatischen Konsistenzprüfungen zugänglich zu machen. Wie so oft wird Software allein die Probleme nicht lösen können.