Bezüglich der Verfügbarkeit von Systemen, die am Cloud Computing beteiligt sind, fordern Experten des Hochverfügbarkeitsspezialisten Stratus ( www.stratus.de) eine sorgfältige Betrachtung der Risiken. Anbieter von Cloud Computing bieten für ihre Lösungen eine Verfügbarkeit von maximal 99,95 Prozent. Das reicht laut Stratus jedoch nicht für unternehmenskritische Anwendungen; diese könnten daher nicht in der Cloud betrieben werden. Dafür müssten die Anwender weiterhin auf Systeme zurückgreifen, die eine Verfügbarkeit von 99,9999 Prozent und darüber bieten — also echte Hochverfügbarkeit.
Cloud Computing verschafft Unternehmen mehr Flexibilität als herkömmliche Formen der IT-Nutzung:
Die IT-Ressourcen können damit über das Web ohne vorherige Investitionen je nach Bedarf genutzt
werden. Gerade in wirtschaftlich schwierigen Zeiten sehen Unternehmen daher im Cloud Computing eine
Möglichkeit, IT-Leistungen kostengünstig und effizient zu nutzen.
Siemens: "Gekürzte IT-Budgets lösen Cloud-Bedenken ganz schnell auf"
Verizon bläst mit Sicherheit zur Cloud-Offensive
Die große Flexibilität und die hohe Effizienz haben nach Einschätzung von Stratus allerdings
eine Kehrseite: Die großen Anbieter von Cloud Computing können durchweg nur eine Verfügbarkeit von
99,9 bis maximal 99,95 Prozent garantieren. Auch wenn die Provider ihre eigenen Systeme in der
Regel heute hochverfügbar machen, so kann der Anwender immer nur die Verfügbarkeit nutzen, die auch
wirklich bei ihm ankommt. Er muss also auch Netz- und Leistungsausfälle einkalkulieren.
Stratus-Experten weisen darauf hin, dass diese Verfügbarkeit für unternehmenskritische Aufgaben
bei Weitem zu gering ist, denn damit würden die Systeme im Dauerbetrieb durchschnittlich für 8,7
beziehungsweise 4,3 Stunden pro Jahr nicht zur Verfügung stehen. Je mehr die Geschäftsprozesse von
der IT abhängig sind, desto gravierender sind die Folgen von Server-Ausfällen.
Für unternehmenskritische Anwendungen eigne sich Cloud Computing daher grundsätzlich nicht. Dazu
müssten Unternehmen weiterhin auf Server-Lösungen in stationären Architekturen zurückgreifen. Dabei
kommen fehlertolerante Server heute auf eine Verfügbarkeit von über 99,9999 Prozent, was einer
durchschnittlichen Ausfallzeit von etwa einer halben Minute pro Jahr entspricht. Fehlertolerante
Server bieten damit sogar eine höhere Verfügbarkeit als kommerzielle Großrechner.
LANline/jos