Kommentar: Big-Data

Sinn und Unsinn im Datensalat

22. Oktober 2015, 14:30 Uhr | Mathias Hein, freier Consultant in Neuburg an der Donau
Kolumnist: Mathias Hein
© funkschau

Hört man den IT-Gurus derzeit genau zu, dann glaubt diese Personengruppe fest daran, dass "Big Data" alle Antworten auf alle Fragen bereithält. Die Versprechen werden jedoch - zumindest in einer traditionellen Form – nicht gehalten.

Laut einer Untersuchung von IDC werden unter dem Begriff „Big Data“ die großen Informationsressourcen der Unternehmen (beispielsweise Enterprise/Resource/Planning (ERP), Consumer/Relationship-Management (CRM) und andere geschäftskritischen Systeme) in modernen Analysetools zusammengefasst. Tatsächlich machen diese Geschäftsdaten jedoch nur 10 Prozent der vorhandenen Daten eines durchschnittlichen Unternehmens aus. Beim großen Rest der Daten handelt es sich um "unstrukturierte" beyiehungsweise "qualitative" Daten. Diese können in die Unternehmen auf unterschiedliche Arten (beispielsweise durch Kundenumfragen, Antwortformulare, Online-Foren, Social-Media, Videos, Nachrichten, Anrufe) in das Unternehmen gelangt sein. In der Regel handelt es sich bei diesen Daten um textliche und nicht numerische Informationen die nicht leicht zu "quantifizieren" sind.

Genau darin liegt das Big-Data-Problem begraben. Die meisten Analyse-Tools sind auf die Verarbeitung quantifizierter Informationen ausgelegt und können daher mit unstrukturierten Daten nichts anfangen. Solche Daten werfen oft mehr Fragen als Antworten auf. Eine Datenanalyse im Vakuum birgt hohe Risiken und die Analyseergebnisse erzählen immer unvollständige Geschichten.

Stellen wir uns ein Unternehmen vor, welches zu verstehen versucht, warum die Online-Verkäufe nicht den geplanten Ergebnissen entsprechen. Investiert man in entsprechende Marketing-Analyse-Tools, erfährt man beispielsweise, wie lange ein Nutzer im Durchschnitt auf einer bestimmten Webseite verbringt oder kann die Abbruchraten der Benutzer im Verkaufsprozess darstellen. Solche Daten lassen sich einfach ermitteln, stellen jedoch nicht unbedingt den Grund für den jeweiligen Prozessabbruch dar. Die quantitativen Daten dokumentieren, dass die Website des Unternehmens in den vergangenen 10 Tagen bereits von 10.000 Nutzern besucht wurde. Aber erst die qualitativen Daten dokumentieren, dass viertausend Besucher aufgrund eines bestimmten Themas die Web-Seite besuchten, ob deren Erwartungen erfüllt beyiehungsweise nicht erfüllt wurden und was die enttäuschten Nutzer stattdessen unternommen haben.

Qualitative Daten dienen der Identifizierung von Beziehungen zwischen beliebigen Daten. Aufgrund dieser Beziehungen kann man beispielsweise erkennen, dass Menschen, die sich einen längeren Zeitraum auf der Website aufhalten, einen Einkauf im entsprechenden Web-Shop tätigen. Stattdessen dienen die qualitativen Daten der Identifizierung kausaler Zusammenhänge und liefern in der einen oder anderen Weise die Begründung für ein Handeln. Wurde der Einkaufsprozess abgeschlossen, weil sich der Besucher längere Zeit auf der Website verbracht hat oder verbringt der Nutzer einfach längere Zeit auf der Website, weil der Verkaufsprozess so umständlich ist?

Die Analyse der qualitativen Daten wurde in der Vergangenheit meist manuell vorgenommen und erforderte immer die intensive Betreuung durch Menschen. Man konnte nicht eine Datenbankabfrage starten und die Ergebnisse in einer Visualisierung darstellen. Die Analyse der qualitativen Daten war in der Vergangenheit sehr begrenzt. Doch genau in diesem Bereich zeichnet sich inzwischen ein Wandel ab. Es stehen nicht nur mehr Werkzeuge und Analysepakete für qualitative Daten zur Verfügung, sondern es gibt auch immer clevere Möglichkeiten zur Transformation von qualitativen Daten in quantitative.

Beispielsweise nutzt das Unternehmen You Eye für die Online-Studien die Video- und Audio-Techniken, um die Interaktion der Nutzer auf den Websites, Anzeigen oder anderen Materialien darzustellen. Zwischen 50 und 300 Benutzer werden in der Regel pro Studie ausgewählt. Die dabei entstandenen Videos werden transkribiert und mit einer Kombination aus menschlichen Eingaben, der Sprachverarbeitung und des maschinellen Lernens kodiert. Am Ende des Prozesses erhält der Kunde eine Zusammenfassung der Ergebnisse. Im Fall eines Kaffee-Anbieters wurden von You Eye entsprechende Interviews durchgeführt. Erwähnten die befragten Teilnehmer einen Wettbewerber oder ein Wettbewerbsprodukt wurden entsprechende Marken gesetzt. Anhand der anschließenden kausalen Analyse konnte der Kaffee-Anbieter sofort erkennen, warum er Kunden verliert. Solch eine Analyse ist mit reinen quantitativen Daten nicht möglich.

Es gibt bestimmte Fragen in der Forschung, die sich durch quantitative Methoden nur unzureichend beantworten lassen. Hierzu gehört beispielsweise: Warum sich ein Kunde gleichgültig gegenüber einem Produkt verhält oder welche Gefühle und Denkprozesse ein bestimmter Service/bestimmtes Produkt beim potenziellen Kunden auslöst? Die quantitativen Daten sagen uns nur, wie weit verbreitet bestimmte Meinungen sind. Um bestimmte Frequenzen und Häufungen an Informationen verstehen zu können, muss man die Bedeutung hinter den qualitativen Daten verstehen. Aus diesem Grund genügt nicht eine Beurteilungsmethode um die Rohdaten bewerten zu können.

Das Arbeiten in der Software mit qualitativen Daten ist eine Frage der Umwandlung der Basisinformationen in eine numerische Form. Beispielsweise wird einer bestimmten qualitativen Antworte oder einem Kommentar ein numerischen Wert oder eine Punktzahl zugewiesen. Die Transformation qualitativer Daten in eine quantitative Form beinhalten natürlich auch immer einige subjektive Entscheidungen. Da die menschliche Sprache viele Feinheiten und Komplexitäten enthält, muss man das gesprochene Wort sehr genau verstehen, um deren Bedeutungsnuancen zu extrahieren.

Aus diesem Grund werden für die Analyse von Sprachsequenzen eine Vielzahl von Algorithmen genutzt. Die qualitative Datenanalyse ist daher zeitaufwendig und erfordert ein hohes Maß an Geschicklichkeit vom Analysten bei der Befragung der Zielgruppen. Eine der am meisten unterschätzten und oft übersehene Fähigkeit, die die qualitative Analyse erfordert ist ein gewisses Maß an Empathie. Allzu oft wird sich bei der qualitativen Datenanalyse ausschließlich auf die reine Codierung der gewonnenen Daten verlassen und dabei die kritische Würdigung des Kontextes der Daten vernachlässigt. Der reine Vergleich statistischer Daten (beispielsweise Hypothese A vs. Hypothese B) funktioniert dann nicht, wenn die qualitative Daten zu viele Nuancen und zu viele graduelle Unterscheidungen enthalten.

Fazit

In Zeitalter von Big-Data gilt es den Sinn hinter dem Datensalat zu verstehen. Fließen in die Datenressourcen ein Verständnis für Gefühle, Motivationen und die individuellen Wahrnehmungen ein, wird die Datenanalyse zu innovativen und neuen Erkenntnissen führen und eine wesentlich vollständigere Geschichte erzählen.

Anbieter zum Thema

zu Matchmaker+

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu connect professional

Weitere Artikel zu Server, Datacenter

Matchmaker+