Gaastkommentar von Varonis

Nutzergenerierte Big-Data - können wir die Datenflut in Schach halten?

28. Mai 2013, 15:23 Uhr | Diana Künstler

Fortsetzung des Artikels von Teil 1

Die neue Ölquelle der Zukunft

Nutzergenerierte Inhalte umfassen alle Dateien und E-Mails, die wir tagtäglich erstellen: Präsentationen, Textverarbeitungsdokumente, Tabellenkalkulationen, Audio- und sonstige Dateien, die unsere Arbeitgeber ständig von uns verlangen. Diese Dateien nehmen in den meisten Organisationen den Großteil der Speicherkapazität in Anspruch. Sie werden lange Zeit aufbewahrt, und eine riesige Menge von Metadaten ist mit ihnen verknüpft. Wir haben es also mit enormen Mengen von nutzergenerierten Daten – und noch größeren Mengen von Metadaten – zu tun. Metadaten sind Informationen über eine Datei: wer sie erstellt hat, um welchen Dateityp es sich handelt, in welchem Ordner sie gespeichert ist, wer sie geöffnet hat und wer darauf zugreifen kann. Inhalte und ihre Metadaten ergeben zusammen nutzergenerierte Big-Data.

Das Problem ist, dass die meisten Organisationen und Behörden noch nicht über die erforderlichen Tools verfügen, um das Potenzial nutzergenerierter Big-Data auszuschöpfen. Eine aktuelle Umfrage mit mehr als 1.000 Internet-Experten und -Nutzern, die vom Pew Research Centre und dem Imagining the Internet Center der Elon University in North Carolina (USA) veröffentlicht wurde, ergab, dass die Welt für den Umgang mit Big-Data möglicherweise noch nicht bereit ist. Wie bereits erwähnt, kamen die Experten zu dem Schluss, dass die bis zum Jahr 2020 erstellten enormen Datenmengen, die sie als „digitale Abgase“ bezeichnen, sehr wohl die Produktivität steigern, die Transparenz in Organisationen verbessern und die Grenzen der „vorhersehbaren Zukunft“ erweitern könnten. Sie zeigten sich jedoch besorgt darüber, in welche Hände diese Informationen gelangen könnten und ob Regierungen und Unternehmen verantwortungsvoll damit umgehen werden.

Laut der Umfrage „könnte die Analyse von Big-Data durch Nutzer und Computer die soziale, politische und wirtschaftliche Informationslage bis 2020 verbessern. Das Aufkommen der so genannten Big-Data wird Dinge vereinfachen, zum Beispiel Vorhersagen in Echtzeit, die Entwicklung „inferentieller Software“, die Datenmuster erkennen und Auswirkungen berechnen kann, sowie die Erstellung von Algorithmen für komplexe Korrelationen, die ein neues Verständnis der Welt ermöglichen.“ 39 Prozent der befragten Internet-Experten vertraten jedoch das Gegenargument – nämlich dass „die Analyse von Big-Data durch Nutzer und Computer bis 2020 mehr Probleme schaffen als lösen wird. Die Existenz riesiger analysierbarer Datenmengen wird zu einem falschen Vertrauen in unsere Prognosefähigkeit führen und viele zu schweren und schmerzlichen Fehlern verleiten. Darüber hinaus wird die Big-Data-Analyse von mächtigen Individuen und Institutionen missbraucht werden, die die Analyseergebnisse aus eigennützigem Interesse manipulieren werden, um ihren Willen durchzusetzen.“

Der Unternehmer Bryan Trogdon, einer der Studienteilnehmer, erklärt: „Big-Data ist das neue Öl. Die Unternehmen, Regierungen und Organisationen, die diese Ressource fördern können, werden einen enormen Vorteil gegenüber allen anderen erlangen. Geschwindigkeit, Agilität und Innovation bestimmen über Gewinner und Verlierer. Big-Data erlauben es uns, die Devise ‚zweimal messen, einmal schneiden‘ durch das Motto ‚höher, schneller, weiter‘ zu ersetzen.“

Anbieter zum Thema

zu Matchmaker+

  1. Nutzergenerierte Big-Data - können wir die Datenflut in Schach halten?
  2. Die neue Ölquelle der Zukunft
  3. Mit den Daten wachsen
  4. Problematik cloudbasiertes Filesharing
  5. Das Problem zur Lösung machen

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Server, Datacenter

Matchmaker+