Interview

Daten en masse

12. April 2012, 13:42 Uhr | David Ladner
Alexander Wallner, Area Vice President Germany, Netapp
© NetApp

Die Datenhaltung ist das Eine, die Daten gewinnbringend für Unternehmen einzusetzen das Andere. Insbesondere wenn unstrukturierte Daten rasant anwachsen und Dimensionen erreichen, die nur noch schwer in punkto Skalierbarkeit, Verarbeitungs-performance oder Hochverfügbarkeit in den Griff zu bekommen sind: Big-Data. funkschau sprach mit Alexander Wallner, Area Vice President Germany von Netapp über Probleme, Lösungen und Trends bei der Datenhaltung en masse.

funkschau: Wie haben sich die Anforderungen an den Storage durch Big-Data verändert?
Alexander Wallner:Die zentrale Herausforderung ist das Datenwachstum. In größeren Unternehmen werden die Speicherkapazitäten heute schon in Petabyte gemessen. Bei ungebrochenen Datenwachstumsrate von jährlich 40 Prozent ist auch keine Entspannung in Sicht. Mit Blick auf Big-Data muss Storage kaum mehr vorstellbare Datenmengen bewältigen. Horizontale Skalierbarkeit, also scale-out, ist ein ebenso großes Thema wie Performance und Hochverfügbarkeit. Nicht zu vergessen Cloud-Fähigkeit. Big-Data können physisch überall gespeichert sein, so dass sie virtuell zusammengefasst werden müssen, um sie zum Beispiel für Analysen nutzen zu können. Storage-Virtualisierung und vor allem Schnittstellen werden für den erfolgreichen Einsatz von Big-Data-Applikationen eine entscheidende Rolle spielen.

funkschau: Auf welche Besonderheiten achten Hersteller hier vor
allem?
Wallner: Für Big-Data ist ein abgestimmter Stack aus Bandbreite, Rechenleistung und Speicherkapazität ideal. NetApp hat für Big-Data die Storage-Familie E-Series im Programm, die sich überdies mit unseren bekannten FAS-Systemen integrieren lässt. Sie zeichnet sich durch extrem hohe Performance und Storage-Dichte aus. Mit ihren verschiedenen Ausbaustufen decken wir die Themen Analytics, Bandwidth und Content ab, unser „ABC des Big-Data“. Wir positionieren uns also vor allen im Bereich Echtzeitanalyse großer Datenbanken, zum Beispiel mit Hilfe des Hadoop-Frameworks. Weiterhin in allen Bereichen, die überdurchschnittliche Daten- und Compute-Workloads generieren. Und schließlich im Storage-Grid-Umfeld, wo Content nach Objektkriterien innerhalb eines globalen Adressraums kategorisiert wird, so dass extreme Skalierbarkeit entsteht.

funkschau: Welche Auswirkungen haben Echtzeitanforderungen auf die Dateninfrastruktur und Datenanalyse?
Wallner: Nur schnelle Analysen und Reporting-Tools ermöglichen Geschäftsentscheidungen anhand aktueller Daten. Allein auf Grund der Datenmengen kommt man hier beispielsweise mit herkömmlichen relationalen Datenbanken nicht mehr weit. Der Trend geht daher zu hoch skalierbaren Distributed- oder Objekt-orientierten Filesystemen und auch zu In-Memory-Computing wie beispielsweise mit SAP-HANA. Bei In-Memory-Computing fließen Roh- und Analysedaten, die normalerweise getrennt sind, in einem gemeinsamen Pool zusammen. Bislang wurden Daten erst in einem Warehouse gesammelt und mittels zeitaufwändiger Batch-Jobs immer wieder aktualisiert, bevor die eigentlichen Analysen und Abfragen erfolgen konnten. Mit In-Memory-Computing sind die Daten bereits am Ort des Geschehens, so dass der Echtzeitanspruch einlösbar wird.

funkschau: Welche Rolle kommt Storage und Datenmanagement in Infrastrukturen mit In-Memory-Technologie zu?
Wallner: Storage bleibt auch für In-Memory-Technologien unerlässlich und kommt zum Zug, sobald Daten gesichert und hochverfügbar vorgehalten werden müssen, aber auch aus Gründen der Skalierbarkeit. Selbst eine Appliance-Lösung wie SAP-HANA erfordert eine Shared-Storage-Infrastruktur als Backend, sobald mehr als ein Server-Knoten eingesetzt werden muss. Aktuell ist NetApp-Storage Teil von zwei für SAP-HANA zertifizierten Serverlösungen und ermöglicht deren horizontale Skalierbarkeit. Damit profitieren Kunden von ultraschneller Rechenpower, flexibler Einbindung von Datenquellen und verlässlichem, kosteneffizientem Schutz ihrer Geschäftsdaten.

funkschau: Welche Trends sehen Sie für die kommenden Jahre?
Wallner: Beim Storage wird sich die horizontale Skalierbarkeit noch weiterentwickeln. Systemübergreifende Filesysteme sind eine Sache, systemübergreifender Datenzugriff eine andere. Für Big-Data und deren Verarbeitung mithilfe von In-Memory-Computing oder anderen Compute-Szenarien entsteht so das Big-Picture. Innovative Speichertechnologie wird zu einem Kernelement, um Big-Data plattformübergreifend so zu handhaben, dass sich der darin verborgene Informationsschatz heben und nutzen lässt – zur Entscheidungsfindung, Feingestaltung von Shop-Angeboten, Entwicklung neuer Geschäftsmodelle und mehr. Den Möglichkeiten sind keine Grenzen gesetzt.

Anbieter zum Thema

zu Matchmaker+

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Server, Datacenter

Matchmaker+