Hype treibt Big-Data-Projekte an

Datenanalysen in neuen Dimensionen

28. August 2013, 10:34 Uhr | Werner Fritsch

Fortsetzung des Artikels von Teil 1

Predictive Analytics ist schon ausgereift

»Der Begriff Big Data ist populär geworden. Aber er ändert nicht die Weise, wie Unternehmen Daten verwenden, um ihre geschäftlichen Aktivitäten zu verbessern.« Steve Wooledge, Vice President Marketing bei Teradata (Foto: Teradata)
»Der Begriff Big Data ist populär geworden. Aber er ändert nicht die Weise, wie Unternehmen Daten verwenden, um ihre geschäftlichen Aktivitäten zu verbessern.« Steve Wooledge, Vice President Marketing bei Teradata (Foto: Teradata)

Bereits auf das Plateau der Produktivität gelangt ist Gartner zufolge hingegen das Thema Predictive Analytics. In-Memory Analytics wird weniger als zwei Jahre brauchen, um dort anzukommen. Predictive Analytics wird heute genannt, was früher als Data Mining bezeichnet wurde. Seit Jahrzehnten werden statistische und andere mathematische Verfahren verwendet, um Zusammenhänge in großen Datenbeständen aufzuspüren und künftige Entwicklungen abzuschätzen. Auswertungen im Arbeitsspeicher (In-Memory) sind für ausgewählte Einsatzzwecke ebenfalls schon lange gebräuchlich. Derzeit geht das Bestreben dahin, wesentlich mehr Daten nahe am Prozessor des Rechners zu halten, um mehr Analysen auf einer aktuelleren Grundlage durchführen zu können.

»Der Begriff Big Data ist populär geworden, aber er ändert nicht die Weise, wie Unternehmen Daten verwenden, um ihre geschäftlichen Aktivitäten zu verbessern«, stellt Steve Wooledge, Vice President Marketing bei dem Data-Warehouse-Protagonisten Teradata, gegenüber CRN klar.

Dirk Mahnkopf, hierzulande Business Advisor Big Data bei dem Datenanalyse-Spezialisten SAS Institute, konstatiert im Gespräch über den gegenwärtigen Hype um Big Data: »Da werden Themen aufgegriffen, die wir schon lange kennen.« Neben dem Volumen sei die Vielfalt der Daten signifikant: Social Media und Smartphones nennt er als Treiber im Hinblick auf neue Datentypen. Als dritten Punkt in der geläufigen Definition nennt er schließlich die Geschwindigkeit der Auswertungen. Wichtig ist ihm außerdem die Zukunftsgerichtetheit der Analysen.

Grid-Cluster und In-Database-Analysen zeigen sich als neuere technologische Entwicklungen bei SAS-Kunden. Zuwächse gibt es ferner bei Text-Mining und der Analyse von Sensordaten. Einen traditionellen Schwerpunkt bildet weiterhin die Analyse von Kundendaten, die dabei berücksichtigen Datenbestände werden jedoch größer.

Ein Referenzprojekt läuft am Flughafen Frankfurt. SAS-Software wird dort schon länger für Data Mining und Planung eingesetzt. In dem aktuellen Projekt geht es um die Steuerung von Passagierflüssen. Die Geh- und Wartezeiten der Fluggäste sollen verringert, aber auch Angebote wie Duty-Free-Shops bestmöglich platziert werden. Früher wurden solche Maßnahmen einmal am Tag durchgeführt, heute hingegen jede Stunde mehrmals.


  1. Datenanalysen in neuen Dimensionen
  2. Predictive Analytics ist schon ausgereift
  3. Software, Hardware und Dienstleistungen werden benötigt
  4. Data-Warehouse-Akteure prägen den Markt
  5. Chancen für Channel-Unternehmen
  6. Integration verschiedenartiger Daten
  7. Anwendungen vom Marketing bis zur Maschinenwartung
  8. Start-ups setzen Impulse
  9. Interesse bei Großunternehmen und Mittelständlern

Jetzt kostenfreie Newsletter bestellen!

Matchmaker+