Datenbankmanagement

Storage, Datenbanken und Big Data

3. April 2017, 11:38 Uhr | Autor: Clemens Siebler, Redaktion: Markus Kien

Fortsetzung des Artikels von Teil 1

Performance-Booster Flash trifft Cloud

Flash-Arrays verdrängen nach und nach Speicherinfrastrukturen, die ausschließlich auf Platten und Bandlaufwerke setzen. So zeigt eine Analyse von IDC zum weltweiten Storage-Markt, dass im zweiten Quartal 2016 die Hybrid Flash-Systeme (Festplatte plus Flash) rund 26 Prozent aller verkauften Storage-Lösungen ausmachten. All Flash erreichte bereits knapp zehn Prozent, Tendenz stark steigend. Laut IDC könnten die All-Flash-Arrays ab 2018/2019 die primäre Storage-Umgebung dominieren.

Zu den Vorteilen von Flash gegenüber Festplatten zählen beispielsweise höhere I/O-Geschwindigkeiten (Input/Output) und verringerte Latenzen. Im Gegensatz zu HDDs, die mechanische Komponenten verwenden, sind Chip-basierte Speichertechnologien zudem deutlich energieeffizienter. Einsparungen im Stromverbrauch und beim Platzbedarf sowie Verbesserungen in der Klimatisierung sind daher wichtige Faktoren, die sich auf die gesamte IT-Infrastruktur auswirken. Auch daraus kann sich bereits, neben den reinen I/O-Vorteilen, ein Bedarf ergeben. Zudem sollte eine Workload-Migration zwischen Flash, Cloud und anderen Technologien möglich sein. Dazu bedarf es einer effektiven und umfassenden Datenmanagement-Lösung.

Für Big Data-Analysen gilt es, verteilte Datenquellen standortübergreifend zu integrieren. Die Cloud und insbesondere hybride Cloud-Infrastrukturen haben sich dabei zu einem wichtigen Element einer flexiblen und agilen IT-Landschaft entwickelt, mit der sich Datenmanagement- und Business-Anforderungen effizient lösen lassen. Doch in der Praxis findet in Unternehmen oft – noch – kein übergreifendes Datenmanagement statt: In vielen Rechenzentren sind unternehmenskritische Daten in Silos gefangen, ohne eine koordinative Datenmanagement-Infrastruktur oder durchgängige IT-Service-Prozesse. Mit einer dedizierten Speichermanagementsoftware können IT-Verantwortlichen Datensilos aber über die Cloud zu verbinden. Dadurch sind sie in der Lage, Daten unabhängig von Applikationen und Speicherort zu verwalten, zu verschieben und zu archivieren.

Die nächste Generation der IT geht noch weiter: Bei vielen Analytics-Anwendungen wird eine sehr hohe Rechenleistung benötigt. Dafür stehen Pay as you use-Modelle bei AWS (Amazon Web Services) und Microsoft Azure zur Verfügung. Ansätze wie beispielsweise “Cloud Sync” von NetApp sollen es Unternehmen zudem erlauben, Daten über eine IP-Leitung an die Cloud zu senden, um diese dann über die massiven Compute-Cluster berechnen zu lassen. Die Ergebnisse der Kalkulation werden ins eigene Rechenzentrum übertragen. Ein Beispiel: Das Jet Propulsion Laboratory (JPL) der Nasa empfängt täglich Daten seines Mars-Rovers. Diese werden von der eigenen Cloud in Amazons Cloud verschoben und ausgewertet. Anschließend gelangen die Informationen zurück ins JPL. Die Experten werten dort die verarbeiteten Daten aus und senden dem Roboter auf Basis dieser Erkenntnis neue Anweisungen.

Eine Infrastruktur auf der Höhe der Zeit erlaubt es Unternehmen also, ihre Daten so zu strukturieren, dass sie daraus einen Mehrwert für die Entwicklung ihrer Geschäftsbereiche ziehen können – ohne allzu tief in die Tasche greifen zu müssen. Dabei kann eine ausgereifte Speicherstruktur aus Hadoop-Plattform und Flash-Speicher helfen. Mit ihr liegen Daten schnell und performant zum Zugriff bereit – und das System bleibt stabil.

Clemens Siebler ist Manager Solution Architects EMEA bei NetApp.

Anbieter zum Thema

zu Matchmaker+

  1. Storage, Datenbanken und Big Data
  2. Performance-Booster Flash trifft Cloud
  3. Expertenkommentar: Storage effizient machen

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu NetApp Deutschland GmbH

Weitere Artikel zu Server, Datacenter

Weitere Artikel zu Storage

Matchmaker+