»Ich denke, dass sich im Markt viel bewegt«, sagt Tobias Nittel, hierzulande Director Alliances bei dem amerikanischen Software-Hersteller SAS. Hadoop sei ein Trend, mit dem sich Kunden und Partner auseinandersetzten müssen. Datenintegration und -analyse seien Mehrwertdienstleistungen, die den Partnern höhere Margen böten. SAS offeriert Werkzeuge, die die Komplexität bei der Verwendung von Hadoop verringern sollen. »Hadoop ist die technologische Umsetzung von Big Data«, bringt es Nittel auf den Punkt. Zusammenarbeit gibt es mit Cloudera und Hortonworks, in gewissem Umfang auch mit den konkurrierenden Hadoop-Anbietern MapR und Pivotal. »Eigentlich machen wir Big Data schon lange«, betont Nittel ähnlich wie Teradata-Manager Geissler. Als Beispiel nennt er Marketing-Kampagnen der Deutschen Telekom, die schon vor zehn Jahren durch segmentierte und individualisierte Ansprache auf der Grundlage von Datenanalysen die Kundenbindung verbessern wollte.
»Datenmanagement ist eine Voraussetzung, doch analytische Algorithmen holen Werte aus den Daten«, erklärt der Manager. Wenn es darum geht, Werte aus Daten zu schöpfen, sei die schiere Größe des Volumens eigentlich kein relevanter Parameter. Es müssen nicht Tera- oder gar Petabyte-Dimensionen sein, oft sind schon Daten im Gigabyte-Bereich aussagekräftig. Absatzprognosen und Location-Based Services nennt er als Einsatzszenarien. Ausreißer zu identifizieren sei wichtig, um Betrugsversuche frühzeitig zu erkennen. »Wichtiger ist die Geschwindigkeit, mit der Daten auf die Unternehmen einprasseln«, meint Nittel. »Big Data übersteigen die Fähigkeiten der Unternehmen«, berichtet der Experte. Oft handelt es sich um Informationen, für die sich relationale Datenbanken und die zugehörige Sprache SQL weniger eignen. Solche Daten fallen zum Beispiel durch Sensoren an, wie sie bei Connected Cars vorkommen. Die Komplexität der Daten hält Nittel für die größte Herausforderung.
Auf der Analyseseite geht es weiterhin um Klassifizierungen, Segmentierungen und die Erkennung von Mustern – wie schon vor Jahrzehnten, als fortgeschrittene Analyseverfahren aus Statistik und Künstlicher Intelligenz (Neuronale Netze, Machine Learning) unter dem Begriff Data Mining gehandelt wurden. Heute spricht man bevorzugt von Advanced oder Predictive Analytics. Neu hinzugekommen sind in jüngerer Vergangenheit In-Memory-Plattformen für besonders rasche Auswertungen. Banken zum Beispiel untersuchen in immer kürzeren Intervallen große Mengen von Portfolien und berücksichtigen zahlreiche Variablen, um ihre Risiken besser einschätzen zu können und den regulatorischen Anforderungen der Aufsichtsbehörden zu entsprechen. SAS hat eigene In-Memory-Technologie, in Projekten wirken die Analyseprogramme des Herstellers aber auch mit vergleichbaren Plattformen von Wettbewerbern wie SAP oder Oracle zusammen. »Was früher Tage oder Stunden gedauert hat, lässt sich heute in Minuten durchführen«, berichtet Nittel.
Für kaufmännische Nutzer aus den Fachbereichen offeriert SAS Visual Analytics: Analysewerkzeuge mit grafischen Oberflächen (Drag’n’Drop), die die Komplexität der Analyseverfahren verbergen. Versiertere Datenanalytiker hingegen wollen weiterhin unter die Motorhaube schauen und die für die jeweilige Fragestellung geeignetsten Algorithmen auswählen oder im Rahmen einer Programmiersprache selbst erstellen. Datenanalysen führen oft Mitarbeiter der Fachabteilungen durch. Für die Bereitstellung und Sicherung der Daten hingegen sorgen meist die IT-Abteilungen.