Crisp Research zum Problemfall "Data Gravity"

"Trägheit" der Public-Cloud-Daten meistern

8. April 2015, 6:30 Uhr | René Büst, Senior Analyst, Crisp Research/wg

Aufgrund von Compliance-Richtlinien, rechtlichen Anforderungen, technischen Grenzen und individuellen Sicherheitsklassen besitzen Daten in der Cloud eine bestimmte Trägheit ("Data Gravity"). Damit ein Unternehmen Daten außerhalb der eigenen IT-Infrastruktur verarbeiten kann, ohne die Kontrolle darüber zu verlieren, sind neue Storage-Konzepte notwendig. Ein Kommentar von René Büst, Senior Analyst bei Crisp Research.

Der Stellenwert von Daten nimmt im digitalen Zeitalter stetig zu: Einerseits werden immer mehr Daten für analytische Zwecke produziert, andererseits steigt der Vernetzungsgrad aufgrund einer immer größer werdenden Vernetzung mit zum Teil nicht bekannten Systemen sowie der Verteilung von Daten innerhalb von Public-Cloud-Infrastrukturen, die sich nicht mehr vollständig unter der eigenen Kontrolle befinden.

Angesichts dieser Tatsache verfügen Daten je nach Typ und individueller Sicherheitsklasse über eine bestimmte Trägheit. Diese sogenannte „Data Gravity“ macht die Daten unterschiedlich beweglich. Zentrale Gründe für diese Datenträgheit sind:

* die Größe der Datenbestände,
* die Latenz des Zugriffs auf die Daten,
* der Durchsatz und die Bandbreite für den Zugriff auf die Daten,
* Möglichkeiten der Kontrolle über die Daten,
* die Erfüllung rechtlicher Rahmenbedingungen sowie
* der Zugriff von lokalen oder mobilen Apps und Cloud-Services.

Eine Hybrid-Cloud-Architektur ist in der Lage, die Herausforderungen der „Data Gravity“ zu meistern. Dabei ist es nicht mehr notwendig, die Daten zu bewegen: Stattdessen bleiben diese auf dem eigenen Storage-System liegen, und Public-Cloud-Services greifen zur Verarbeitung auf die Daten zu. Im Laufe der Verarbeitung werden die Daten durch die Public-Cloud-Services zwar verändert und gegebenenfalls neue Daten erzeugt. Jedoch verlassen diese niemals das Storage-System in Richtung Public Cloud.

Ein Hybrid-Cloud-Szenario bietet daher eine gute Grundlage, um die Herausforderungen im Zuge der Datenverarbeitung in der Public Cloud zu meistern. Zu diesen Herausforderungen zählen:

* Stabilisierung oder Verbesserung der Performance,
* Verringerung der Latenz,
* Erhöhung der Verfügbarkeit,
* Optimierung der Zugriffskontrolle,
* Einhaltung von Compliance-Richtlinien und Gesetzesvorgaben sowie
* Sicherstellung von Governance.

Zwar bieten Public-Cloud-Infrastrukturen für Unternehmen zahlreiche Wege, um sich neuen Geschäftsideen zu widmen, ihre IT-Infrastruktur skalierbarer zu betreiben oder einen Vorteil aus ihren Datenbeständen zu ziehen. Dennoch stellen sich Compliance- und Governance-Richtlinien als auch das erforderliche Kontrollniveau immer wieder als Hürden heraus.

Vor diesem Hintergrund hat Crisp Research in Zusammenarbeit mit Netapp Deutschland ein Strategiepapier erstellt, das die Herausforderungen der Datenkontrolle und der globalen Skalierbarkeit im Rahmen von Hybrid- und Multi-Cloud-Architekturen thematisiert und Lösungsszenarien aufzeigt. Es steht hier kostenfrei zum Download bereit.

Mehr zum Thema:

Veeam: Hybrid Cloud als Vehikel für Backups

VMware Vcloud Air in Deutschland verfügbar

Netapp: Flexible Datenspeicher für die Hybrid Cloud

Diskussion um Cloud-RZ-Standorte: Die deutsche Wolke ist in

QSC: Was für die Cloud zu klären ist

"Eine Hybrid-Cloud-Architektur ist in der Lage, die Herausforderungen der "Data Gravity" zu meistern", so Cloud-Analyst René Büst. Bild: Crisp Research

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Yes Telecom Germany GmbH

Weitere Artikel zu STARFACE GmbH

Weitere Artikel zu Ingenico

Matchmaker+