Performance-Management-Software sammelt typischerweise innerhalb eines Unternehmens riesige Datenmengen, um diese anschließend mithilfe von Big-Data-Analyse-Tools zu untersuchen. Cloudphysics stellt solche Analysen auf eine breitere Basis: Um Probleme schneller zu finden beziehungsweise sicherer zu vermeiden, untersucht das Unternehmen die Gesamtheit der Daten aller seiner Kunden.
Virtualisierte Umgebungen sind größer, dichter und komplexer, als IT-Manager das von klassischen physischen Umgebungen gewohnt waren. Zudem sind nun verschiedene IT-Systeme integriert, was zu oft nicht ohne Weiteres vorherzusehenden, gegenseitigen Abhängigkeiten führt. Demzufolge ist auch das Management solcher Umgebungen äußerst komplex – und Verbesserungsmaßnahmen an einer Stelle führen oft zu negativen Auswirkungen an anderer Stelle.
Beispielsweise packt Virtualisierung in der Regel Anwendungen sehr eng zusammen. Zwar werden dadurch Ressourcen effizient genutzt, jedoch gleichzeitig zahlreiche neue Gefahren geschaffen, die den reibungslosen Betrieb im Zusammenspiel von Netzwerk, Massenspeicher, Rechenspeicher, CPU und anderen Komponenten kompromittieren könnten. Da sich die komplexen Zusammenhänge außerdem laufend ändern, haben IT-Teams so gut wie keine Chance auf sinnvoll verwertbare Einblicke. Das softwaredefinierte Rechenzentrum bringt weitere Abstraktionsebenen, die das Betriebs-Management noch komplizierter machen.
Vor diesem Hintergrund kam das 2011 gegründete Start-up-Unternehmen Cloudphysics aus Mountain View im Silicon Valley im vergangenen Jahr mit einem Cloud-Service auf den Markt, der IT-Teams erlauben soll, Entscheidungen im Rechenzentrumsbetrieb auf Basis von Datenanalysen all seiner Kunden zu treffen. John Blumenthal, CEO bei Cloudphysics, wundert sich: „Es ist schon Ironie: Überall werden Datenanalysen für einen sicheren und reibungslosen Betrieb verwendet – nur nicht da, wo diese Analysen ablaufen, in der IT. Heutige Rechenzentren arbeiten dynamisch, der Management-Stack ist jedoch nach wie vor statisch.“
Community-generierte Cards vereinfachen Service-Nutzung
Die Server von Cloudphysics werden laut Angaben mit mehr als 80 Milliarden Sets an Konfigurations- Performance- Fehler- und Ereignisdaten seiner Kundenbasis befüttert. Cloudphysics lässt diese Daten über seine patentierten Rechenzentrumssimulationen und Ressourcen-Management-Techniken analysieren, um daraus die für konkrete RZ-Situationen beim Kunden bestmöglichen Entscheidungsgrundlagen zu gewinnen.
Die Analysen sind auf bestimmte Probleme und Szenarien fokussiert und in Form so genannter „Cards“ zusammengefasst. Die Wahl entsprechender Cards, deren Bestand benutzergeneriert kontinuierlich wächst, soll die Nutzung des Cloud-Services vereinfachen. Wichtig: Cloudphysics sammelt ausschließlich Betriebsdaten ohne Bezug zu Personen und Organisationen – daher sollten auch europäische Unternehmen keine Compliance-Probleme bekommen.
Blumenthal vergleicht das Prinzip, nach dem sein Unternehmen arbeitet, mit dem, was Google auf Basis von Ortsinformationen für seine Nutzer macht: „Google nutzt Analysen der anonymisierten Verkehrsdaten aller GPS-Sender seiner Nutzer dafür, um jeden einzelnen dabei zu unterstützen, Staus und Unfälle zu vermeiden und insgesamt bessere Entscheidungen bei der Routenplanung zu treffen. Dieselbe Art Intelligenz bringt Cloudphysics in die IT-Abteilungen, um bessere Entscheidungen für den Betrieb des Rechenzentrums zu treffen.“
Aktuell läuft das ausschließlich mit Vmware-Umgebungen – künftig sollen jedoch auch Openstack und Hyper-V unterstützt werden. Zielmarkt von Cloudphysics sind mittlere Unternehmen von etwa 500 bis 8.000 Mitarbeitern. Auf der Website des SaaS-Anbieters (www.cloudphysics.com) wird unter anderem ein kostenloser 30-Tage-Test angeboten.