Zum Inhalt springen

Business Intelligence zwischen Erneuerung und Ausbreitung (Fortsetzung)

Autor:Werner Fritsch • 31.7.2005 • ca. 2:00 Min

Geschäftsprozesse im Blick
Viel gesprochen wird derzeit über Geschäftsprozesse. So erkennt Experte Chamoni hinter Ansätzen wie BPM oder BAM unterschiedliche Ausprägungen der Grundidee, bewährte Analysetechniken für die Geschäftsprozesse fruchtbar zu machen. Die etwa von dem Data-Warehouse-Spezialisten NCR Teradata häufig beworbenen Echtzeitmöglichkeiten seien jedoch oft nicht praxisrelevant. Die Gartner-Leute sind anderer Meinung. Schon für nächstes Jahr erwarten sie, dass Echtzeitanwendungen verbreitet sein werden. Außerdem würde sich auf Business Intelligence beruhende Kollaboration in den nächsten Jahren zu einem wichtigen Technologietrend entwickeln. Für Meta-Mann Bitterer ist BPM bereits heute ein signifikanter Trend. Für die Zukunft spekuliert er ergänzend über Analytic Process Controlling, das das operative Geschäft mit Hilfe von Service Level Agreements und Agenten überwachen könnte.
Schon vor Jahren haben Experten die Möglichkeit aufgezeigt, die per Datenanalyse gewonnenen Einsichten un­mittelbar in den operativen Bereich zu­rückfließen zu lassen. Doch auch heute stehen solche Closed-Loop-Szenarien noch am Anfang. Gleichwohl hält Chamoni entsprechende Archi­tekturen weiterhin für zu­kunfts­trächtig. Beim Data Mining hinkt die Wirklichkeit in den Be­trieben den technischen Möglichkeiten ebenfalls hinterher. Seit Jahren sind ausgereifte Werkzeuge von IBM, SAS und weiteren An­bietern verfügbar, um unbekannte Zu­sam­menhänge in Datenbeständen zu entdecken, doch eingesetzt wird die anspruchsvolle Technologie bis heute nur wenig. »Data Mining ist kein ­Renner geworden«, resümiert Cha­moni. Das Potential sei weiterhin vorhanden. Den vorgefertigten analytischen Applikationen, die vor einigen Jahren von Herstellern stark beworben wurden, sagt der Wirtschaftsinforma­tiker indes keine große Zukunft voraus: »So etwas eignet sich nur für Spezial­bereiche wie Controlling oder Risikomanagement.«

Datenqualität oft unzureichend
Jahrelang wogte der Streit zwischen den Befürworten kleiner Abteilungslösungen und denen, die eine zentrale Datenbank als Data Warehouse mit einer einzigen Version der Wahrheit für erforderlich hielten. Inzwischen hat sich die zweite Fraktion weitgehend durchgesetzt, meint Chamoni. Jedenfalls in der Theorie: In der Praxis bleibt eine allumfassende konsistente Datensammlung wohl meist ein unerreichtes Ziel, und viele Anwendungen sind weiterhin auf die Anforderungen einzelner Abteilungen ausgerichtet. In den meisten Unternehmen werde Business Intelligence noch nicht strategisch, sondern lediglich taktisch eingesetzt, kritisieren darum die Experten von Gartner. Isolierte Data Marts in diversen Abteilungen sind nach wie vor weit verbreitet.
Nicht zuletzt deshalb haben die Unternehmen in Sachen Datenqualität weiterhin zu kämpfen: Die anspruchsvollsten Backend-Architekturen und die benutzerfreundlichsten Frontend-Tools helfen nicht weiter, wenn die Daten nicht in gutem Zustand sind. Leider ist dies häufig der Fall: Inkonsistenzen sind an der Tagesordnung, Be­reinigungen bleiben ein müh­seliges Kramen in Details. Unter dem Begriff Metadatenma­nagement versuchen Softwarehersteller wie Hyperion und SAP, wenigstens einen Kernbestand der Daten, nämlich Stamm- und Produktdaten, einheitlich zu formalisieren und dadurch automatischen Konsistenzprüfungen zugänglich zu machen. Wie so oft wird Software allein die Probleme nicht lösen können.