Worauf Unternehmen achten sollten

Vier Aspekte bei der Wahl des Cloud-Providers

11. April 2022, 13:15 Uhr | Autor: Patrick Englisch / Redaktion: Lukas Steiglechner
© everythingpossible - 123RF

Die Cloud ist für viele Unternehmen mittlerweile unverzichtbar. Deshalb müssen Unternehmen bei der Wahl des Anbieters sehr genau hinschauen. Vier Kriterien können bei der Auswahl helfen: unterstützte Workloads, zuverlässige Wiederherstellung, optimierter Speicherplatz und ein einfacher Überblick.

Die Cloud ist mittlerweile integraler Bestandteil der IT-Infrastruktur und wickelt bei vielen Firmen wichtige Prozesse ab. Um Störungen oder Ausfälle der Cloud-Dienste zu vermeiden, ist es notwendig, vorab den passenden Cloud-Provider auszuwählen. Dabei sollten die Datensicherheit und die Sicherheit vor Ransomware priorisiert werden. Doch auch Mitarbeiterfehler haben einen Einfluss auf die Cloud-Sicherheit. Eine aktuelle Studie von Veritas Technologies zeigt, dass Mitarbeiter oft zu ängstlich oder zu beschämt sind, Datenverluste oder falsche Nutzung von Cloud-Anwendungen zu melden. So können Daten für immer verloren gehen oder Schadcodes in die IT-Struktur eindringen. Das führt im schlimmsten Fall zu einem Totalausfall der Cloud-Anwendungen. Dabei sind die Umgebungen am anfälligsten für IT-Schwachstellen. Laut dem „Vulnerability Lag Report“ gab knapp die Hälfte der Befragten an, dass ihre Sicherheitsstrategie im Cloud-Bereich Lücken aufweist. Zudem sind sich 34 Prozent der IT-Experten nicht sicher, welche Cloud-Lösungen in ihrem Unternehmen eingesetzt werden.

Bei der Wahl der Cloud-Anbieter sind einige Punkte zu beachten, damit die Daten vollständig geschützt sind. Dabei können Unternehmen vier Aspekte beachten, um ein passendes Cloud-Angebot auszuwählen.

Anbieter zum Thema

zu Matchmaker+

1. Werden alle wichtigen Workloads unterstützt?

Der Cloud-Provider sollte die Management-Werkzeuge des Nutzers unterstützen und die Cloud-Elemente in ein hybrides Konzept integrieren können. So kann die Infrastruktur mit den Diensten der Cloud-Provider arbeiten. Die unterstützten Workloads spiegeln die Service-Leistung des jeweiligen Providers wider. Gerade bei Digitalisierungsvorhaben ist es entscheidend, dass der Cloud-Anbieter wichtige Eckdienste liefert und in seiner Roadmap moderne Module ankündigt – wie Big Data oder Internet of Things (IoT).

Grundlegend sollte folgende Workloads unterstützt werden:

  • Big Data: Diese Servicemodule können helfen, große Datenmengen schnell auszuwerten und mithilfe von Prognosemodellen neue Erkenntnisse zu gewinnen.
  • Open Source: Idealerweise bindet der Provider neben den kommerziellen Alternativen auch Open-Source-Plattformen ein. Auf diese Weise haben die Nutzer eine Auswahl. Insbesondere mit Plattformen wie MongoDB, OpenStack und Container-basierten Umgebungen wie Docker oder Kubernetes bleibt die IT-Infrastruktur zukunftssicher.
  • Hyperkonvergente Infrastrukturen: Damit lassen sich kritische Daten und Anwendungen hochverfügbar und ausfallsicher ankoppeln.
  • Hybride traditionelle Anwendungen: Für den Betrieb älterer Anwendungen benötigen Unternehmen einen Provider, der hybride Cloud-Konstellationen ermöglicht.

2. Wie zuverlässig lassen sich Daten wiederherstellen?

Der Brand im Rechenzentrum OVHCloud Anfang 2021 hat gezeigt, dass Unternehmen für ihre Daten und ihre Sicherheit am Ende selbst verantwortlich sind. Denn sind Daten ungesichert, garantiert der Provider nicht, dass er sie nach einem Ausfall vollständig wiederherstellen kann. Daher sollten Firmen ihre Daten in der Cloud prinzipiell selbst per Back-up sichern – Stichwort „Shared Responsibility“. Wie lassen sich aber im Ernstfall ganze Datenbestände oder wichtige Teile wiederherstellen?

Der Provider sollte hierfür granulare Recovery-Prozesse unterstützen, damit der Nutzer beispielsweise eine virtuelle Maschine oder einzelne Dateien einer virtuellen Applikation zurückholen kann, ohne den gesamten Datenbestand herunterladen und neu aufsetzen zu müssen. Das kann den Aufwand reduzieren. Zudem muss gewährleistet sein, dass sich die kritischen Anwendungen und Daten priorisiert rekonstruieren lassen, sodass wichtige Dienste nach einem Totalausfall schnell wieder verfügbar sind.

Damit dies möglichst reibungslos abläuft, sollte der Provider folgende Funktionen in der Business Continuity beziehungsweise in den Recovery-Plänen unterstützen:

  • Automatisierte und orchestrierte Wiederherstellung: Damit lassen sich komplexe Multi-Tier-Anwendungen per Mausklick ganzheitlich wiederherstellen.
  • One-for-One-Orchestrationen: Hier muss ein IT-Verantwortlicher die Schritte mit minimalen Befehlen bestätigen, sodass er weiterhin die volle Kontrolle über den Prozess behält.
  • Testen des Wiederherstellungsplans: Es ist wichtig, Disaster-Recovery-Prozesse und Migrationsszenarien auf sichere Weise zu testen, ohne dass der Produktionsbetrieb davon beeinträchtigt wird.
  • Herstellerübergreifendes Konzept: Die Recovery-Mechanismen müssen gegebenenfalls Anwendungen unterschiedlichster Art auf verschiedenen Plattformen wiederherstellen. Daher sind herstellerübergreifende beziehungsweise unabhängige Disaster-Recovery-Mechanismen essenziell, die die Daten Ende-zu-Ende schützen können.

Datenwiederherstellungen lassen sich durch entsprechende Werkzeuge unterstützen. Konsolidierte Plattformen ermöglichen Unternehmen, Daten flexibel und ohne Ausfallrisiko zu migrieren. Wichtig ist es, dass die Strukturen komplexer mehrstufiger Applikationsarchitekturen sowie die Abhängigkeiten der Assets erkannt werden. Zudem sollten alle sich alle Workloads in eine Hybrid- und Multi-Cloud-Umgebung portieren lassen, sodass ein Disaster Recovery as a Service möglich ist.

3. Wie lassen sich Speicherplatz und Laufkosten optimieren?

Viele Firmen nutzen bereits die Deduplizierung in ihren eigenen Back-up-Umgebungen, um die Größe der Back-ups so klein wie möglich zu halten und Speicherplatz zu sparen. Idealerweise unterstützt der Cloud-Provider diese Deduplizierung ebenfalls. So lassen sich Speicher und Bandbreiten schonen, da die Gesamtmenge der zu speichernden Daten reduziert wird. Eine Option besteht darin, dass eine Back-up- und Recovery-Lösung diese Intelligenz unabhängig vom Cloud-Provider einbringt, sodass eine Multi-Cloud-Strategie ermöglicht wird.

Eine zentrale Übersicht kann bei der optimalen Speicherauslastung zusätzlich helfen. Sie zeigt im Detail, an welchem Ort sich der Speicher befindet. IT-Verantwortliche erkennen schnell, auf welchen Speichern die Archivdaten abgelegt wurden. Sie erhalten einen guten Überblick und können die Strukturen optimieren. Denn das gesamte Storage-Tiering lässt sich effizienter aufsetzen, als es in vielen Unternehmen der Status quo ist.

Für eine effiziente Speichernutzung sollte ein Cloud-Provider auch mehrere Leistungsstufen anbieten: Bei hochperformanten und kritischen Anwendungen empfehlen sich etwa Hochleistungsspeicher, für weniger wichtige Daten reichen hingegen günstigere und langsamere Storage-Dienste aus. Das ermöglicht die Ablage der Daten nach Wichtigkeit und Relevanz. So lässt sich die Auslastung der Speicher besser nach Kosten steuern, was zur Reduzierung der Betriebskosten beitragen kann. Jedes Terabyte, auf das verzichtet wird, spart im Schnitt zwischen 600 und 700 Euro Kosten ein.

4. Wie lässt sich der Überblick über die IT-Infrastruktur behalten?

Wer seine Daten in die Cloud migriert, wird wahrscheinlich länger eine hybride Infrastrukturarchitektur pflegen. Die Daten werden im Alltag auf verschiedenen Plattformen verteilt, die untereinander Abhängigkeiten haben, die verstanden werden müssen. Denn fällt eine Komponente aus, kann das sofortige Einleiten entsprechender Gegenmaßnahmen notwendig sein. Daher kommt es darauf an, die gesamte Infrastruktur und den Datenbestand kontinuierlich zu überwachen.

Zunächst sollten sich Unternehmen einen Überblick über alle Dienste und über die getauschten Daten verschaffen. Mithilfe der passenden Tools lassen sich die Metadaten des Dateisystems sammeln und verwalten. Dies geschieht unabhängig davon, ob sich die Daten lokal oder in Cloud-Speichern befinden. Über diese Informationen können die IT-Teams herausfinden, wie alt die Files sind und welchem User oder welcher Abteilung sie zugeordnet sind. Zudem lässt sich feststellen, um welchen Applikationstyp es sich handelt oder wann eine Datei zuletzt geöffnet wurde. Hierdurch lassen sich veraltete Daten, wertvolle Informationen und Risiken übersichtlich identifizieren. Firmen können damit auch vorab entscheiden, welche Daten sie migrieren und welche sie löschen oder archivieren wollen.

Wer die Daten noch genauer analysieren will, kann die Tools mit Archivlösungen koppeln: Die Daten werden nach frei definierbaren Richtlinien klassifiziert und mit vordefinierten Mustern und Filtern abgeglichen – beispielsweise für personenbezogene Informationen. Jede Datei, die archiviert ist, wird automatisch untersucht und nach Bedarf gekennzeichnet. Auf diese Weise lassen sich kritische Situationen gut überbrücken. Die Daten und Applikationen sind gesichert, und im Idealfall lassen sich alle kritischen Dienste per automatisiertem Disaster-Recovery-Prozess auf die Cloud eines anderen Anbieters übertragen.

Patrick Englisch, Director Technical Sales DACH bei Veritas Technologies


Verwandte Artikel

VERITAS Software GmbH

Cloud

Matchmaker+