Der Speicher und die Organisation

Gute Hardware ist nur die halbe Miete

29. Juni 2005, 23:06 Uhr | Dr. Johannes Wiele

Storage - da feierte bis vor kurzem noch die IT als die Spielwiese der Hardware-Fans fröhliche Urständ. Anstelle der Prozessorfrequenzen der PCs waren hier eben Terabytes und Plattenzahlen die Maße, an denen sich "Qualität"angeblich messen ließ. Doch jetzt sitzt den Liebhabern handfester Technik auch hier der Teufel "Organisation" im Nacken: Ohne langfristige Konzepte und intelligente Software wird kein Unternehmen mehr Herr über seine Datenbestände.

So richtig Schwung bekommen hat der Paradigmenwechsel im Storage-Geschäft im Bereich der
Sicherung von Daten auf Arbeitsplatz-PCs. Irgendwann haben die Unternehmen endeckt, dass sie mit
jedem modernen PC und Notebook Plattenkapazitäten einkaufen, die viel zu schade sind, um nicht
unternehmensweit genutzt zu werden. Im Fall mobiler Computer kommt dann hinzu, dass die Rechner
zuweilen extrem wichtige Unternehmensdaten beherbergen, die obendrein noch besonders gefährdet
sind.

Einmal speichern reicht

Derart dezentrale Daten zu sichern, erfordert allerdings intelligentere Lösungen als die
klassischen Backup-Konzepte mit nachts laufenden Standardsicherungen. Für Notebooks beispielsweise
steht nicht immer die volle Verbindungsbandbreite zur Verfügung, mit der sich ohne Komprimierung
ein Vollbackup fahren ließe. Und es zeigt sich schnell, dass PCs vieler Mitarbeiter derselben
Organisation ein gehöriges Maß exakt gleicher Daten enthalten, die mehrfach abzulegen ökonomischer
Unsinn wäre: Die gleichen Geschäftsleitungs-Mails etwa liegen ebenso auf fast jedem PC vor wie
bestimmte Whitepaper oder Basisdaten auf jedem mobilen Computer der gleichen Fachabteilung. Das
bekannte Konzept spezieller Storage-Filesysteme, Daten blockweise zu sichern, gleiche Blöcke zu
eliminieren und durch verschiedene Zeiger auf denselben Block zu ersetzen, findet sich seitdem auf
die eine oder andere Weise in immer mehr Backup-Produkten wieder.

Ein paar Ebenen höher bewährt sich vor allem die Strategie, die Backup-Medien streng nach den
Zugriffsanforderungen der Endanwender zu wählen. Wer selten benötigte Informationen auf langsamen
Bandspeichern und häufig benötigte je nach Wichtigkeit auf mehr- oder weniger teuren und
zuverlässigen Plattenspeichern ablegt, hat eine gute Chance, mit diesem Medienmix den
Investitionsaufwand für immer größere Speichersysteme überschaubar zu halten. Nur lässt sich die
Zuteilung der Medien eben längst nicht mehr manuell erledigen, sondern muss einer automatisch
bewertenden und Entscheidungen treffenden Software überlassen werden. Damit ändern sich aber auch
die Anforderungen an die Evaluationsleistung der IT-Abteilung für den Storage-Bereich: Statt nur
immer nur die Wachstumsrate der Band- und Plattenbelegung zu messen und danach neue Racks,
Laufwerke und Server zu ordern, muss der Storage-Spezialist nun plötzlich erkunden, ob die
Intelligenz einer bestimmten Lösung langfristig ausreicht, den Entwicklungen und Arbeitsabläufen
seines Unternehmens zu folgen. Ähnlich wie schon im Security-Sektor heißt dies auch, dass ein
Unternehmen den Verwalter für seine Storage-Systeme in Zukunft noch intensiver in Entscheidungen
über Businessprozesse, Geschäftsentwicklungen und Informationsflüsse einzubinden hat.

Wie es dem Endanwender gefällt

Gleichzeitig muss der Storage-Spezialist stärker auf die Endanwender und deren Verhalten achten - aber auch hier helfen ihm vermehrt künstliche Assistenten: Moderne Software etwa analysiert nicht nur, welcher Bedarf bei welchen Mitarbeitern an welchen Daten besteht, sondern informiert die Benutzer auch sofort darüber, dass eine aufgerufene Datei beispielsweise auf eine Band-Library ausgelagert ist und deshalb erst nach einer gewissen Wartezeit zur Verfügung steht.

Bleiben noch die leidigen Themen "Recht", "Sicherheit" und "Langzeitarchivierung". Um den Anforderungen aus allen drei Gebieten gerecht zu werden, fehlt es zum Teil sogar noch an den passenden Datenmodellen. Gut beobachten lässt sich dies, wenn Inhalte einer Datenbank nach und nach die Lebensdauer des sie verwaltenden Programms und der ihm zugeordneten Formate überschreiten.

Rettungsring Metadaten

Metadatenformate und Techniken wie XML-Wrapping stehen deshalb derzeit auf dem Prüfstand der
Langzeitarchivierungsspezialisten. Offene Standards wie XML, die überdies weitgehend im Klartext
lesbar sind, verdienen dabei besondere Beachtung, denn sie garantieren, dass sich für die mit ihrer
Hilfe gesicherten Informationen immer wieder neue Auswerteprogramme schreiben lassen, auch wenn
einmal nur noch die Rohdaten vorliegen und die Software dazu längst verschollen ist.

Applikationsunabhängige Metadaten können aber auch weitere Storage-Probleme lösen.
XML-Security-Standards etwa erlauben es, unterschiedlichste Daten mit Zugriffsschutz zu versehen
oder auf eine Weise zu verschlüsseln, die zumindest die Methode der Verschlüsselung mit den Daten
zusammen konserviert. Die Sicherung der Schlüssel selbst bleibt allerdings eine Aufgabe, für die
die Besitzer der Informationen selbst eine langfristig tragfähige Methode finden müssen.


Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Lampertz GmbH & Co. KG

Matchmaker+