"Stand Cloud-Computing vor allem für die Konsolidierung und Zentralisierung der Infrastruktur, fährt sein Nachfolger Edge Computing künftig genau mit dem Gegenteil auf" – Silvio Kleesattel von Beck et al. Services über die Entwicklung der Cloud.
Fasst man die Cloud als einen wesentlichen Teil der großen Entwicklungen in der IT-Infrastruktur auf, könnte man die Cloud ohne weiteres als den „Mainframe“ des Datacenters eines Providers bezeichnen. Vor der Cloud-Ära dominierte die Client-Server-Ära das Geschehen in der Infrastrukturlandschaft. Das war die Zeit, in der viele Großrechner dezentralen Strukturen zum Opfer fielen. Richtet man heute den Blick nach vorne, wird auch schon sichtbar, welche IT-Umgebung künftig möglicherweise für die ersehnten Effizienzgewinne und Kostenvorteile sorgen wird. Die Rede ist von Edge Computing. Glaubt man den Prognosen der Marktforscher, wird dieser nächste große Technologiesprung langfristig, also in den nächsten fünf bis zehn Jahren, die Cloud-Strukturen ablösen. In der Welt der Rechenzentren, die jetzt schon vielfältig und bunt daherkommen wird es künftig noch differenzierter zugehen. Das trifft vor allem auf das Angebot der Cloudanbieter, sowie die Soft- und Hardwareinstrukturen zu.
Denn stand Cloud-Computing vor allem für die Konsolidierung und Zentralisierung der Infrastruktur, fährt sein Nachfolger Edge Computing künftig genau mit dem Gegenteil auf: Rechenleistung wird über Millarden von IoT-fähigen Endgeräten wieder dezentral benötigt. Und warum das so ist? Unterschiedlichste Unternehmen und Anbieter im Markt sind gerade dabei, ihr Kerngeschäft zu digitalisieren. Dafür müssen sie in intelligente und automatisierte Analyseverfahren und –Technologien wie beispielsweise Sensorik, IOT-Technologien und Machine Learning investieren. Das gilt vor allem für die Vernetzung vieler Geräte und Maschinen miteinander. Das bedeutet beispielsweise in Kombination mit dem Geschäft der Mobilität, dass Sensoren im Fahrzeug Milliarden Daten pro Sekunde generieren. Um alle diese Daten in die Cloud transferieren zu können, würde auf Dauer die Kapazität der Netzwerke nicht ausreichen. Denn Machine-Learning-Verfahren sind aufgrund ihrer ML-Algorithmen nicht nur besonders rechenintensiv, sie laufen zudem am effizientesten auf spezialisierter Hardware.