Grob lassen sich Unternehmen in zwei Gruppen einteilen: Solche, die bereits von einem größeren Ausfall von IT-Systemen betroffen waren und solche, die ihn noch vor sich haben. Was aber kostet die Downtime nun konkret?
Eine Studie von CIO.com zeigt, wie sich das Risiko in etwa verteilt: Eine Stunde »Offline« macht bei 42 Prozent der untersuchten Unternehmen moderate 1000 Dollar aus, bei mehr als einem Viertel stehen allerdings schon 10.000 Dollar pro Stunde. In der Spitzengruppe werden für ausgefallene Server gar 50.000 Dollar fällig – wohlgemerkt pro Stunde.
Was der Ausfall eines Servers genau kostet, lässt sich nach einer recht einfachen Formel ausrechnen:
To steht für die tatsächliche Dauer des Ausfalls in Zeiteinheiten.
Td bezeichnet die so genannte Delta Time. Darunter versteht man die seit dem letzten Backup verstrichenen Zeiteinheiten.
Rp (Rate of Personnel) bildet Kosten ab, die durch die untätig herumsitzende Belegschaft entstehen. Dieser Wert errechnet sich aus den monatlichen Personalkosten des betroffenen Bereichs, geteilt durch die geleisteten Zeiteinheiten.
Lr (Lost Revenue) schließlich gibt den entgangenen Profit an. Hier nimmt man am besten einen Durchschnittswert aus mehreren Monaten und dividiert ihn wieder durch die betrachteten Zeiteinheiten.
Auf diese Weise lässt sich das Risiko exakt berechnen, heruntergebrochen auf Tage, Stunden oder Minuten. Dass auf einem physischen Server mehrere virtuelle Maschinen angesiedelt sind, macht die Sache allerdings nicht gerade einfacher. Denn die einzelnen Workloads umfassen ja nicht selten verschiedene Teile des Unternehmens. Will man also das Risikopotenzial eines bestimmten Server errechnen, legt man zuerst nach der eben beschriebenen Formel die Ausfallkosten für jeden Workload fest und addiert diese dann.
Die nach Workloads getrennte Risikoabschätzung ist zwar mühsam, aber in mehrfacher Hinsicht hilfreich. Sollen Prozesse von einer physischen Maschine auf eine andere übertragen werden, lässt sich das neue Risikoprofil schnell aus den vorhandenen Modulen errechnen. Außerdem kann man so Konstellationen vermeiden, die eine unnötig hohe Risikoakkumulation auf einem physischen Server bedeuten würden.
Addiert man wiederum die Ausfallkosten der einzelnen Sever, kommt man schließlich das Gesamtrisiko für einen kompletten Standort.
Dass die Ausfallhäufigkeit in konsolidierten Rechenzentren aufgrund der geringeren Anzahl der in Betrieb befindlichen Komponenten abnimmt, spricht für die Virtualisierung. Für eine Kosten-Nutzen-Abschätzung bei der Anschaffung einer Hochverfügbarkeitslösung ist dieser Faktor aber leider nicht von Belang. Schließlich kann ja auch ein statistisch sehr unwahrscheinlicher Ausfall bereits am nächsten Morgen eintreten.