Gerade im Bereich der Business Intelligence geht es immer um das versteckte Potenzial, das in Unternehmensdaten schlummert. Analysen müssen zudem so individuell wie möglich sein, sich also dem Suchenden anpassen. Indem nun Metadateninhalte etwa um das Geschäftsglossar, Inhalte aus datenführenden Systemen, Informationen zur Echtzeitnutzung,Nutzungstelemetrie-Daten, Standortinformationen und Empfehlungs- sowie Insights-Engines verknüpft werden, entsteht ein umfassender Semantic Graph des Unternehmens. Auf diese Weise werden neue Generationen von KI-Anwendungen unterstützt, die intelligente Handlungsempfehlungen für Analysten sowie Inhaltsvorschläge für Endanwender anbieten.
Es ist wenig überraschend, dass Konzerne wie Google und Amazon schon seit längerer Zeit verstärkt in semantische Beziehungen investieren. Während der Suchmaschinen-Riese mit Graphen das Netz für seine Suchanfragen vorsortiert, hat Amazon eine Graph-Datenbank für die Cloud entwickelt. Ob Betrugserkennung oder Empfehlungsmodule für den E-Commerce, ob Wissensdiagramme oder Unternehmensnetzwerke: Amazons „Neptune“ verspricht schnellen Rat. Aber auch andere Softwareanbieter für Enterprise Analytics und Business Intelligence stellen semantische Bezüge zwischen den Daten der Kunden her, um deren Analysen auf sichere und einheitliche Beine zu stellen. Diese einheitliche Definition von Daten wird von immer mehr Unternehmen gefordert. Denn bedienen sich zehn Abteilungen verschieden definierter Daten, führt das zu unterschiedlichen Ergebnissen. Ein geläufiges Beispiel ist die Berechnung des Umsatzes. Wenn zwei Consultants derselben Abteilung den Umsatz ihres Bereichs auf Basis zweier Datensilos berechnen, werden die Ergebnisse im direkten Vergleich divergieren. Für die Geschäftsentwicklung dürfte das jedoch wenig zielführend sein.
Eine Investition in die Zukunft
Trotz aller Sinnhaftigkeit hängen mittelständische Unternehmen der Entwicklung oftmals noch hinterher. Zu lange stand „Big Data“ vor „Smart Data“, das Sammeln vor dem Auswerten, Masse vor Klasse. Auch die Ressourcen und das Wissen fehlten an vielen Stellen: Das Modellieren eines eigenen Semantic Graph ist für Unternehmen mit viel Aufwand verbunden. Dabei geht es zum einen um technologische Kenntnisse rund um objektbasierte Modellierung, Data Warehouse, BI, XML, SQL und vieles mehr. Zum anderen bedarf es des Wissens um sämtliche Strukturen im Unternehmen. Gerade der Multisource-Ansatz, also das Zusammenführen der Daten aus vielen verschiedenen Quellen, eventuell sogar das Auflösen von Daten-Pools und damit die Reduktion der Quellen sowie das Verknüpfen der Daten in der richtigen Form, sind Herausforderungen. Diese können von Experten wie Data Engineers gelöst werden, da sie über das entsprechende Fachwissen zur Datenmodellierung verfügen. Mit je mehr Daten der Graph darüber hinaus gefüttert und je mehr er trainiert wird, desto besser und präziser wird er seine Aufgabe erfüllen: nämlich kontextuelle und personalisierte Analysen zu liefern, die nicht nur vorausschauend, sondern auch verbindlich sind. In der Folge bedeutet das, dass Unternehmen neue Maßnahmen ergreifen und Rollen und Strategien definieren müssen, um die Semantik weiter zu fördern. Auch wenn die Resultate vielleicht nicht unmittelbar sichtbar sind, ist der langfristige Nutzen unbestritten. Denn in nicht allzu ferner Zukunft werden Daten für jede einzelne Person sowie jeden einzelnen Workflow zwingend erforderlich sein – und somit auch die daraus zu schöpfenden Erkenntnisse. Ein Semantic Layer ist dabei ein nachhaltiges Investment, denn er wird nur einmal definiert und bringt dann über Jahre hinweg das Geschäft voran.
Merten Slominsky ist VP Central Europe bei der MicroStrategy Deutschland GmbH