Sollten sich die Schätzungen der Branchenexperten bewahrheiten, haben wir es im Jahr 2020 schon mit rund 50 Milliarden Devices im Netz zu tun, die wie jedes Cloud-Rechenzentrum extrem viele Daten produzieren. Diese Herausforderungen führen dazu, dass immer mehr Rechen- und Speicherkapazität an den „Rand“ verlagert werden, wo die Daten anfallen und die Ergebnisse benötigt werden, zum Beispiel im selbstfahrenden Auto oder in der sich selbst regulierenden Produktionsanlage. Wer Machine Learning-Verfahren über seine bisherige Cloud-Infrastruktur betreiben möchte, muss daher künftig empfindliche Performance-Nachteile in Kauf nehmen. Denn das Analysieren, Verarbeiten und Speichern von Daten, die von einem Endgerät aus erst einmal in die Cloud wandern, um die Ergebnisse und Entscheidungen dann wieder ans Endgerät zurück zu senden, birgt durch seine Latenzzeiten enorme Risiken.
Wie sich so ein verzögerter Datentransfer in der Praxis äußert, kann man anhand eines Beispiels des autonomen Fahrens verdeutlichen. Findet ein Datentransfer zur Cloud und zurück zum Fahrzeug statt, kann in dieser Zeit bereits ein Mensch zu Schaden kommen oder ein Unfall verursacht werden. Das bedeutet, überall dort, wo eine Datenverarbeitung der unmittelbaren Entscheidungsfindung dient, kann die bisherige Cloud-Infrastruktur keine Basis sein. Aber nicht nur die Latenzzeiten sprechen für das Konzept des Edge Computing. Auch die Last des Netzwerk-Traffics wird über das Einrichten lokaler Speicherlösungen deutlich reduziert. Zudem müssten sensible Daten nicht vom Ort ihrer Entstehung wegbewegt werden. Für Digitalisierungsentscheider oder CIOs von Unternehmen, die ihre Prozesse dahingehend automatisieren müssen, allerdings im Cloud-Korsett verhaftet sind, bedeutet diese Entwicklung vor allem, ihre Architekturen so aufzubauen, dass heute schon eine Art „Vor-Analyse“ auf dem Endgerät stattfinden kann. Zudem könnte man bereits schrittweise die ML-Algorithmen auf Edge-Rechenkapazität verlagern, je weiter diese wächst.