Datenüberblick

Gesamtkunstwerk Multi Cloud

24. Oktober 2022, 14:18 Uhr | Autor: Ralf Baumann / Redaktion: Lukas Steiglechner
© Norbert Preiß / funkschau

Die gleichzeitige Nutzung der Dienste mehrerer Cloud-Provider liegt im Trend. Damit die Multi Cloud aber zum Erfolg führt, müssen Unternehmen einiges beachten: Nicht nur die verschiedenen Anforderungen beim Datenschutz, sondern auch die Auswahl des passenden Anbieters sowie eine effektive Planung.

Cloud-Computing ist weiter auf dem Vormarsch. Mittlerweile nutzen 84 Prozent der Unternehmen in Deutschland Cloud-Lösungen, und weitere 13 Prozent planen oder diskutieren den Einsatz. Das ergab der Cloud-Monitor 2022, für den Bitkom Research im Auftrag von KPMG im Frühjahr 2022 rund 550 Unternehmen ab 20 Beschäftigten befragt hat. Vor allem der Multi-Cloud-Ansatz, also die Nutzung mehrerer Clouds innerhalb einer Private Cloud oder Public Cloud, erfreut sich dabei steigender Beliebtheit. Laut dem „State of the Cloud Report 2022“ des Software-Lizenzmanagementspezialisten Flexera setzen 89 Prozent der Cloud-Anwenderunternehmen auf Multi-Cloud-Konzepte. Die Kombination von Public, Private und Hybrid Clouds kann mehr Flexibilität bei der Auslastung bieten und Unternehmen resilienter machen. Auch die hohe Skalierbarkeit ist ein Argument, da die Beschaffung von Speicher angesichts der globalen Chip-Krise immer schwieriger wird. Und schließlich versetzt eine Multi-Cloud-Strategie das Unternehmen in die Lage, aus dem Angebot der verschiedenen Provider die passenden Dienste für das jeweilige Einsatzgebiet und zum besten Preis auszuwählen.

Herausforderungen beim Multi-Cloud-Computing

Allerdings sind mit dem Multi-Cloud-Ansatz auch Herausforderungen verbunden. Dazu zählt unter anderemdie mangelnde Übersicht, wenn Daten isoliert in verschiedenen Cloud-Infrastrukturen liegen. Dies kann auch die Einhaltung von Compliance-Vorschriften erschweren, vor allem mit Blick auf die DSGVO: Beantragt ein Kunde etwa Zugang zu seinen Daten oder macht sein Recht auf Vergessenwerden geltend, ist es sehr aufwendig, die entsprechenden Informationen in den verschiedenen Cloud-Plattformen zu finden. Oft wissen die Verantwortlichen gar nicht, wo bestimmte Daten gespeichert sind. Und umso schwerer ist es, die eigenen Datensicherungsprozesse mit lokalen Datenschutzgesetzen in Einklang zu bringen. Bei Verstößen drohen jedoch hohe Bußgelder.

Es ist hingegen ein großer Vorteil beim Cloud Computing, die Rechen- und Speicherkapazität nach Bedarf skalieren zu können – und nach Bedarf zu bezahlen. Unternehmen müssen jedoch in der Lage sein, den künftigen Verbrauch vorherzusehen und ihre Anforderungen entsprechend anzupassen. Speziell in komplexen, heterogenen Multi-Cloud-Umgebungen fallen oft höhere Kosten an, weil der Bedarf schwerer zu prognostizieren ist. Auch die Steuerung solcher Umgebungen ist aufgrund ihrer Komplexität nicht trivial. Die IT-Abteilung hat meist nur wenig Einblick, welche Cloud-Dienste genutzt werden und welche Risiken damit verbunden sind. Das erschwert die Anpassung von Governance-Prozessen.

Eine weitere Herausforderung ist der weltweite Mangel an Softwareingenieuren, Systemadministratoren und anderen Experten, die Lösungen mit Cloud-nativen Technologien entwickeln können. Hinzu kommt, dass jeder Cloud-Anbieter ein anderes Datenschutzniveau hat, das zudem oft nicht besonders hoch ist. Dies kann eine Herausforderung sein, da Unternehmen oft fälschlicherweise davon ausgehen, dass ihr Cloud-Service-Anbieter ihre Daten für sie schützt, obwohl die meisten ein Modell der „geteilten Verantwortung“ anwenden, bei dem der Cloud-Anbieter für den Betrieb des Dienstes verantwortlich ist, der Nutzer aber für den Schutz seiner Daten zuständig ist. Da jede Cloud über eine eigene Management-Schnittstelle und -Plattform verfügt, ist die Implementierung integrierter Datenschutzlösungen von Anbieter zu Anbieter unterschiedlich. Es kann daher leicht passieren, dass Unternehmen Datensätze übersehen oder Regeln falsch einrichten.

Ransomware-Angreifer werden immer dreister und attackieren Open-Source-Tools, Software-as-a-Service-Anwendungen (SaaS und VPNs. Und: Wenn es zu einem Sicherheitsvorfall kommt, der eine Wiederherstellung erfordert, muss diese für jede Cloud separat erfolgen. Das ist langwierig und arbeitsintensiv – und kommt zum denkbar ungünstigsten Zeitpunkt, da die IT-Mitarbeiter mit dem Vorfall beschäftigt und oft davon überfordert sind. Aber nicht nur Hacker, auch menschliche Fehler können zu Pannen führen, wie das Beispiel OVH Cloud zeigt: Im Oktober vergangenen Jahres legte eine Störung bei dem französischen Cloud-Anbieter weltweit Websites lahm. Die Ursache: ein falsch konfigurierter Router. Da die Cloud als integraler Bestandteil der IT-Infrastruktur vielerorts wichtige Prozesse abbildet, können Ausfälle des Cloud-Providers fatale Folgen haben und komplette Produktions- sowie Lieferketten beinträchtigen.

Umso wichtiger ist die Auswahl des Cloud-Anbieters. Denn ein späterer Provider-Wechsel ist aufgrund der Datengravitation nicht einfach: Je mehr Dienste eines Anbieters das Unternehmen nutzt, desto größer ist die Datenlast. Das macht die Migration zu alternativen Angeboten sehr aufwändig. Cloud-Provider können zudem Ausstiegsgebühren, also Kosten für die Verlagerung von Daten aus der Cloud, erheben. Damit wird es nicht nur schwieriger, sondern auch teurer, Daten und Arbeitslasten von einem Anbieter zum anderen zu verschieben. Besser ist es, die Angebote der verschiedenen Dienstleister vorher zu vergleichen.

Drei Fragen für die Provider-Wahl

1. Werden alle wichtigen Workloads unterstützt?
Vor allem bei Digitalisierungsvorhaben sollte der Cloud-Anbieter wichtige Workloads unterstützen. Dazu zählt allen voran Big Data zur Auswertung großer Datenmengen und zur Erstellung von Prognosemodellen, Open-Source-Plattformen wie MongoDB, OpenStack und Container-basierte Umgebungen wie Docker oder Kubernetes. Auch hyperkonvergente Infrastrukturen, mit denen sich kritische Daten und Anwendungen hochverfügbar und ausfallsicher koppeln lassen, sind wichtig.

2. Wie zuverlässig lassen sich Daten wiederherstellen?
Firmen sollten ihre Daten in der Cloud selbst per Back-up sichern – Stichwort „Shared Responsibility“. Um komplette Datenbestände oder wichtige Teile davon wiederherstellen zu können, sollte der Provider aber granulare Recovery-Prozesse unterstützen. Damit kann der Nutzer etwa eine virtuelle Maschine oder einzelne Dateien einer virtuellen Applikation zurückholen, ohne den gesamten Datenbestand herunterladen und neu aufsetzen zu müssen. Zudem müssen sich kritische Anwendungen und Daten priorisiert rekonstruieren lassen, damit wichtige Dienste nach einem Totalausfall schnell wieder verfügbar sind. Folgende Funktionen sollte der Provider in der Business Continuity beziehungsweise in den Recovery-Plänen unterstützen:

  • Über eine automatisierte und orchestrierte Wiederherstellung lassen sich komplexe Multi-Tier-Anwendungen per Mausklick ganzheitlich wiederherstellen.
  • Bei One-for-One-Orchestrationen müssen IT-Verantwortliche die Schritte mit minimalen Befehlen bestätigen können, um die volle Kontrolle über den Prozess zu behalten.
  • Wichtig ist, den Wiederherstellungsplan zu testen, ohne dass der Produktionsbetrieb beeinträchtigt wird.
  • Mit einem herstellerübergreifenden Konzept können die Recovery-Mechanismen unterschiedliche Anwendungen auf verschiedenen Plattformen wiederherstellen und die Daten Ende-zu-Ende schützen.

3. Wie lassen sich Speicherplatz und -kosten optimieren?
Viele Firmen nutzen die Deduplizierung in ihren Back-up-Umgebungen, um Speicherplatz zu sparen. Idealerweise unterstützt der Cloud-Provider diesen Ansatz. Es gibt zudem Back-up- und Recovery-Lösungen, die diese Intelligenz unabhängig vom Cloud-Provider einbringen und sich damit für eine Multi-Cloud-Umgebung eignen.

Für eine effiziente Speichernutzung sollte der Cloud Provider mehrere Leistungsstufen anbieten – etwa Speicher für hochperformante und kritische Anwendungen sowie günstigere und langsamere Storage-Dienste für weniger wichtige. Das ermöglicht die Ablage der Daten nach Wichtigkeit und Relevanz. Damit lässt sich die Auslastung der Speicher besser nach Ausgaben steuern, was die Betriebskosten reduziert.

Monitoring für den Multi-Cloud-Umstieg

Angesichts der rasanten Zunahme von Ransomware-Angriffen sollten Unternehmen mit wachsendem Multi-Cloud-Betrieb eine robuste Datenschutzstrategie für ihre SaaS-Daten aufstellen, bevor sie ihre Arbeitslasten in die Cloud verlagern. Wichtig ist auch eine effektive Datensicherungs- und Wiederherstellungsstrategie, um Unterbrechungen im Falle eines Ausfalls so kurz wie möglich zu halten. Bei der Aufteilung der Daten auf physische, historische und Cloud Workloads empfiehlt sich ein einheitlicher Ansatz für die Datensicherung. Damit behalten die IT-Verantwortlichen den Überblick über die Überwachungs-Tools der einzelnen Anbieter und die Speicherorte kritischer Daten. Im Katastrophenfall können sie sie dann schnell wiederherstellen. Denn was vielen Unternehmen nicht bewusst ist: Für die Sicherheit ihrer Daten sind letztlich sie selbst verantwortlich. Sind bestimmte Informationen nicht geschützt, garantiert der Provider nicht, dass er sie nach einem Ausfall vollständig wiederherstellen kann.

Wer seine Daten in die Cloud migriert, wird wahrscheinlich für lange Zeit eine hybride Infrastrukturarchitektur pflegen. Die Daten werden auf verschiedenen Plattformen verteilt, die in Abhängigkeiten voneinander stehen. Fällt eine Komponente aus, müssen sofort entsprechende Gegenmaßnahmen eingeleitet werden. Daher ist es essenziell, die gesamte Infrastruktur und den Datenbestand kontinuierlich zu überwachen. Anhand der Metadaten kann die IT-Abteilung beispielsweise herausfinden, wie alt bestimmte Files sind und welchem User oder welcher Abteilung sie zugeordnet sind. Zudem lässt sich damit feststellen, um welchen Applikationstyp es sich handelt oder wann eine Datei zuletzt geöffnet wurde. Veraltete Daten, kritische Informationen und Risiken können die IT-Verantwortlichen identifizieren – und vorab entscheiden, welche Daten migriert, gelöscht oder archiviert werden sollen.

Auch der kulturelle Wandel spielt beim Umstieg auf eine Multi-Cloud-Umgebung eine wichtige Rolle. Damit sich die Investitionen bezahlt machen, müssen die verantwortlichen Teams eng zusammenarbeiten, sich dynamisch an die Anforderungen des Unternehmens anpassen und schnell auf Veränderungen reagieren können. Entscheidend für den Erfolg einer Multi-Cloud-Strategie ist zudem eine sorgfältige Planung, um die Bereitstellung von Workloads in der Cloud zu vereinfachen und die Ausfallsicherheit zu erhöhen. Unternehmen mit der richtigen Kombination aus Talenten, technischen Tools, Governance und Ausfallsicherheitsplanung sowie der entsprechenden Kultur sind am besten in der Lage, die Komplexität und damit auch die Risiken und Kosten einer Multi-Cloud-Umstellung zu minimieren.

Ralf Baumann, Country Manager Germany, Veritas Technologies


Verwandte Artikel

VERITAS Software GmbH

Cloud