Wer zu denjenigen zählt, die möglichst viele Daten auf allen Ebenen sammeln wollen, weil sie denken es sei besser, denen sei gesagt: Qualität vor Quantität. Ob man nun zwanzigtausend, fünf Millionen oder zehn Milliarden Datensätze auswertet: Die Ergebnisse werden höchstwahrscheinlich dieselben sein, denn größere Datenmengen enthalten per se keinen höheren Informationsgehalt. Im Folgenden ein paar Tipps, wie man es richtig macht:
Qualität geht vor
Der Fokus muss von Masse zu Klasse umschwenken. Statt alle Informationen von Kunden und Prozessen zu speichern, sollten Unternehmen schauen, welche Daten für ihre Analyse- und Vorhersagemodelle relevant und wichtig sind. Braucht man wirklich einmal eine spezielle Art von Daten, so lassen diese sich stichprobenartig erheben und nutzen.
Richtig sortieren
Statt Daten einfach nur zu speichern, sollten sie schon beim Erheben sinnvoll sortiert werden. So kategorisieren Unternehmen sie am besten und ziehen klar getrennte Linien zwischen den Daten.
Den Kontext beachten
Eine Analyse ist nur mit Daten sinnvoll, die auch in Beziehung zueinander stehen. Mit Blick auf das antizipierte Ergebnis lassen sich so schon die richtigen Informationen für das Auswertungsmodell zusammenfassen. Im Umkehrschluss zeigt das aber auch, welche Daten unbedingt für wichtige, wiederkehrende Analysen gebraucht werden und welche Daten man nicht benötigt. Das schont auch den Speicherplatz.
Mehr Datenexperten einstellen
Dieser Punkt wird immer wichtiger und beinhaltet gleichzeitig eine Schwierigkeit. Unternehmen wollen Datenexperten einstellen, finden aber nicht genügend. Deshalb bleibt viel Arbeit auf wenige Schultern verteilt. Ein Ausweg: Unternehmen müssen Mitarbeiter weiterbilden und ihnen das richtige Wissen und die passenden Tools in die Hand geben. So können diese sogenannten Citizen Data Scientists, also Menschen ohne formale statistische Ausbildung oder Informatikhintergrund, einfache Analysen durchführen und diese direkt für ihren Bereich nutzen.
Clevere Tools verwenden
Sicherlich kann man Analysemodelle von der Pike auf codieren und selbst erstellen. Da das aber kompliziert und zeitaufwendig ist, gibt es mittlerweile eine Reihe von Unternehmen, die zugängliche Tools anbieten, die schon vorgefertigte Analysen und Untersuchungen anbieten. Weiterhin können bei anspruchsvollen Tools auch eigene Analyse-Workflows zusammengestellt werden, die das Ganze vereinfachen.