Auf der einen Seite Speichernot, auf der anderen enorme Festplattenkapazität, die niemand nutzt – dies ist das gängige Paradox in heutigen Rechenzentren. Die Thin-Provisioning-Technologie löst es auf, indem es die starre Speicherzuweisung endlich aufbricht.
Auf Nummer sicher gehen, das liegt in der Natur von Storage. Anwendungen generieren schließlich geschäftskritische Daten, die Storage-Systeme sicher aufbewahren sollen. Doch dieses „Auf Nummer sicher gehen“ hat das Phänomen des Over-Provisionings begünstigt. Dabei wird einer Anwendung viel mehr Speicherplatz zugewiesen, als sie bräuchte. Wertvolle Ressourcen liegen brach, was bei dem jährlich geschätzten durchschnittlichen Datenwachstum von rund 40 Prozent pro Firma nahezu fahrlässig ist.
Dieses Beispiel soll zeigen, wie es zu Over-Provisioning kommt. Die IT-Abteilung will eine neue Datenbank installieren. Der Verantwortliche oder „Application Owner“ schätzt ihren Speicherbedarf auf 300 GByte. Der Datenbankadministrator (DBA) möchte sicherstellen, dass der Anwendung immer genug Speicher zur Verfügung steht. Er entscheidet, dass er 325 GByte benötigt.
Der Storage-Administrator hat ähnliche Bedenken wie der DBA und stellt der neuen Datenbank tatsächlich 400 GByte zur Verfügung. Dieser Speicher ist für diese Applikation reserviert und darf von keiner anderen Applikationen genutzt werden.
Nach rund einem Jahr stellen die Beteiligten fest, dass die Datenbank tatsächlich nur 100 GByte belegt hat. Der Speicher ist für zwölf Monate nur zu 25 Prozent genutzt worden. Die unbenutzten Ressourcen belasten als totes Kapital das IT-Budget. Industrieanalysten gehen davon aus, dass durchschnittlich nur 30 bis 35 Prozent des verfügbaren Speichers in Unternehmen genutzt werden.