Distributed-Multi-Cloud ist nicht nur ein aktuelles Thema in der IT-Branche. Dezentralität ist für viele Unternehmen ein wichtiger Faktor, und die Datenverwaltung muss entsprechend mitgehen.
Wann kann man in der IT sicher sein, dass es sich um einen langfristigen Trend und keinen kurzfristigen Hype handelt? Richtig, wenn einer der großen Techgiganten mit einer Lösung aufwartet. Und genau das macht AWS in puncto Distributed-Multi-Cloud. Ab sofort können Unternehmen deutlich einfacher und vor allem sicherer Distributed-Multi-Cloud-Ressourcen verbinden. Der „Link“ hierzu ist AWS Hybrid-Clouds, die ab sofort Workloads in der AWS Cloud mit jenen Kundennetzwerken verbinden kann, die in anderen Clouds wie Microsoft Azure, Oracle Cloud Infrastructure oder Alibaba gehostet sind.
Was AWS mit diesem neuen Service bedient: Den Trend der Unternehmen hin zur Multi-Cloud, der sich immer deutlicher abzeichnet. Und die Beweggründe der Unternehmen sind klar, denn im Prinzip müssen sie kontinuierlich modernisieren – ihre Infrastruktur, den Betrieb und auch die Anwendungen, was über mehrere Clouds oder Edge-Umgebungen deutlich einfacher zu bewerkstelligen ist. Entsprechend wird das Management mehrerer Cloud-Umgebungen für die IT immer mehr zur Regel denn zur Ausnahme – auch, weil sich über Multi-Cloud-Lösungen zunehmend Compliance-Bedürfnisse oder Anforderungen an die Performance abdecken lassen.
Es ist aber auch der „harte Kern“ an alten Java- oder .Net-Applikationen, die die Unternehmen in verteilte Cloud-Modelle zwingen. Denn solche Altlasten lassen sich meist nicht ohne Weiteres modernisieren, sind für den laufenden und reibungslosen Betrieb des Unternehmens jedoch oft unentbehrlich.
Zentralität vs. Dezentralität
Dieses eindeutige Ja zu mehr Dezentralität trifft nun aber auf ein System der zentralen Datenverwaltung – meist eben in nur einer Cloud. Hier gab es bisher keine Notwendigkeit für ein Umdenken, da sich sämtliche Informationen stets über das Internet abfragen und über eine zentrale, von Hyperscalern gesteuerte API verteilen lassen konnten. Der Grund, warum sich an dieser zentralen Datenverwaltung nun etwas ändern könnte, sind die vielen Sensoren und Bluetooth-Geräte, die in immer mehr Branchen zum Arbeitsalltag gehören. Besonders anschaulich ist hier das Beispiel der modernen Landwirtschaft, wo das kleine Hightech-Wunder namens Traktor nicht nur die Daten einer Wetterapp abrufen, sondern diese direkt mit den Sensordaten zur Bodenbeschaffenheit abgleichen, verarbeiten und zurückspielen muss, um etwa die Dichte der Aussaat zu bestimmen.
Ähnlich gelagerte Fälle gibt es in der produzierenden Industrie, wo Datenschutz und lokale Verarbeitung von Daten besonders wichtig oder gar nicht anders möglich sind – etwa aufgrund der notwendigen kleinen Latenzen der Steuerungssysteme von Maschinen und Produktionsprozessen. Ein Teil dieser Anwendungen kommuniziert deshalb nicht ausschließlich mit einer zentralen Cloud, sondern tauscht Daten auch auf lokaler Ebene mit Maschinen in der Fabrik selbst oder in kleineren Rechenzentren mit lokalen APIs aus.
Eine Frage von Kontrolle, Funktionalität und Qualität
Diese Kommunikation mit und über APIs außerhalb der Cloud stellt eine Herausforderung für die IT dar. Denn letztendlich macht es der Bedarf nach mehr Dezentralität für sie deutlich schwieriger, die Kontrolle über Funktionalität und Qualität zu behalten und gleichzeitig Missbrauch und Manipulation von innen oder außen vorzubeugen. In einem kleineren Rahmen mit geringer Komplexität mag das noch ohne Komplikationen gelingen. Bei spezifischeren Umgebungen, etwa mit bis zu 1.000 und mehr Nutzern und entsprechend vielen Sensoren und Geräten, wird es schnell kompliziert und unübersichtlich, was die Anfälligkeit für Missbrauchsversuche entsprechend erhöht.
Gleiches gilt für ein dezentralisiertes Umfeld mit mehreren spezifischen Cloud-Anwendungen. Ein Beispiel dafür ist ein 5G-Netz mit vielen Netzbetreibern und unterschiedlichen Funktionen, weswegen APIs lokal aufzurufen sind. Die Daten laufen dann direkt in die Basisstation des 5G-Netzes und gelangen nicht bis in das Rechenzentrum oder in das Gebiet des Cloud-Anbieters. Das verbessert die Leistung und verringert Latenzzeiten, allerdings nicht ohne die bereits erwähnten Downsides.