Schon vor einigen Jahren hat Flash als zukunftsweisendes Speichermedium Einzug in die Rechenzentren gehalten. Erst In den letzten Jahren stieg die Nachfrage jedoch so stark an, dass die Preise inzwischen erheblich gesunken sind und sich der professionelle Einsatz von flashbasierten SSDs lohnt.
Neuere Entwicklungen wie 3D-NAND-Flash führen dazu, dass die Kosten kontinuierlich weiter sinken. Es überrascht also nicht, dass auch in immer mehr Rechenzentren Flash eingesetzt wird.
ie Vorteile von Flash gegenüber der rotierenden Festplatte liegen an sich auf der Hand: Es handelt sich nicht um ein mechanisches Medium, sodass die Performance – und insbesondere die Zugriffszeit – deutlich verbessert ist. Während man bei schnelldrehenden Festplatten noch über Millisekunden redet, handelt es sich bei Flash um Mikrosekunden. Viele IT-Verantwortliche erhoffen sich durch den Einsatz von SSDs eine sofortige Beschleunigung der Storage-Performance und eine verringerte Komplexität bei der Speicheradministration.
Virtualisierung als Einstieg in die Flash-Welt
Die Einführung von weiteren Technologien – allen voran die Servervirtualisierung – hat die Performance-Anforderungen an die Storage-Infrastruktur sprunghaft ansteigen lassen. Damit einhergehend enttäuschen die älteren Storage-Systeme, da aufgrund der Architektur nicht alle für den Einsatz von SSDs geeignet sind. Die Hersteller müssen gezwungenermaßen an alten RAID-Technologien festhalten, da sie das Datenlayout nicht selbstständig verändern können. Nur sind die alten RAID-Techniken ursprünglich für drehende Platten entwickelt worden und bremsen heutige SSDs unnötig aus. Zudem entstehen wegen der verbesserten, allgemeinen Storageinfrastruktur andere Problemstellen, die bei Benutzung der alten Storage-Systeme nicht aufgetreten waren und somit unbekannt sind. So kann es zum Beispiel zu Engpässen in der Netzwerkschicht kommen, wenn die Daten auf einmal viel schneller als bisher vom Speicher-Array bereitgestellt werden. Der Hauptspeicher in den Servern könnte an seine Grenzen stoßen, da die Packungsdichte der virtuellen Maschinen zunimmt.
IoT und Big Data beschleunigen den Flash-Einsatz
Die Applikationen leiden unter der schlechten, veralteteten Performance, was zur Folge hat, dass Anwender dank langer Antwortzeiten von Applikationen unproduktiv werden. Nun kann die Ursachenanalyse aber schnell zur Suche nach der Nadel im Heuhaufen werden. Die Umgebungen sind viel zu komplex geworden. Es muss an etlichen verschiedenen Stellen gesucht und Daten aus den unterschiedlichsten Quellen korreliert werden – eine schier unlösbare Aufgabe, die manuell kaum noch zu meistern ist. Die Antworten auf diese Problemstellungen liefern sowohl das vielzitierte „Internet of Things“ (IoT) als auch „Big Data“ und „vorausschauende Analysen“. IoT beschreibt die Entwicklung, dass immer mehr intelligente Geräte in unser Leben Einzug halten. Diese schicken ständig Daten über ihren „Gesundheitszustand“ und über die Arbeit, die sie verrichten, an eine zentrale Instanz. Es handelt sich also um maschinengenerierte Daten, die meist an einen Cloud-Service gesendet und dort in einem großen Repository gespeichert werden. Durch die Datenbasis ist es nur mit intelligenten Analysen möglich, Abhängigkeiten zwischen den Zuständen der unterschiedlichen Geräte zu erkennen. Durch die stetig anwachsende Basis an relevanten Daten werden die Ergebnisse qualitativ auch immer besser, bis hin zu der Möglichkeit, vorausschauende Analysen machen zu können. Fehlerquellen lassen sich damit sehr schnell finden, und Zustände, die mit einer großen Wahrscheinlichkeit zu Ausfällen führen, können erkannt und rechtzeitig eliminiert werden. Die Folge: Es entstehen keine ungeplanten Ausfallzeiten.