Wie das Beispiel autonomes Fahren zeigt, wird die Geschwindigkeit der Datentransfers aufgrund teils hoher Latenzzeiten im Netzwerk bald zum Problem in der Cloud. Heutzutage mag das noch für die meisten IT- und Kommunikationsprozesse funktionieren. Mit der drastischen Zunahme an intelligenten, vernetzten Geräten wird dies zukünftig jedoch zu einer echten Herausforderung. Bereits jetzt setzen Unternehmen in vielen Bereichen auf Echtzeit-Analysen von Daten, um kurzfristig Entscheidungen treffen zu können und dadurch Wettbewerbsvorteile zu erzielen – sei es in der Produktion, während des Produkteinsatzes oder für Marketingzwecke, da diese Daten kurz nach ihrer Erhebung am wertvollsten sind.
Spätestens mit der zunehmenden Automatisierung der Produktion oder selbstfahrenden Autos, Bahnen und Bussen wird die direkte Verarbeitung sogar essenziell, um frühzeitig auf drohende Maschinenausfälle, Unfälle und Schäden reagieren zu können. Edge-Computing bietet die Möglichkeit, die Daten bereits zu verarbeiten und zu analysieren, bevor sie zentral gesammelt werden. So können im Anschluss etwa nur bestimmte Datensätze, sofern sinnvoll oder durch Richtlinien für Datenverarbeitung und -schutz vorgegeben, an das Rechenzentrum übermittelt und dort abgelegt werden.
Bei datenintensiven und zeitkritischen Anwendungen empfiehlt sich eine Vorverarbeitung vor Ort auch, um mögliche Sicherheitsrisiken zu vermeiden. Daten werden beim Edge-Computing eben nicht in weit entfernten Rechenzentren oder im Ausland verarbeitet, wo womöglich andere Vorschriften im Umgang mit Daten herrschen. Darüber hinaus sind die Geräte selbst sichererer und verringern die Zahl möglicher Zugangspunkte für mögliche Angriffe von außen.
Ein weiterer wesentlicher Grund für die Verlagerung an den Rand des Netzwerks sind die hohen Kosten für den Transport riesiger Datenvolumen zum Rechenzentrum oder zur Cloud. Ein Beispiel illustriert diese Datenmengen: Ein intelligenter Stromzähler, der alle 15 Minuten misst, generiert 400 Megabyte im Jahr. Eine mittelgroße Gemeinde mit 500.000 Kunden kommt damit jährlich auf 200 Terabyte an Daten – eine gewaltige Menge, die es zu sammeln, verarbeiten und speichern gilt. Dabei sind nicht immer alle Daten gleich wichtig und gleich zeitkritisch. Die Wahl zwischen einer Cloud- oder Edge-Verarbeitung wird von der Anwendung selbst getroffen und hängt davon ab, welche Daten dringend mitgeteilt werden müssen und welche nicht.
Aber welche Daten werden schnell benötigt und welche nicht? In Unternehmen beeinflussen drei Akteure die Entscheidung über die Datenverarbeitung am Rande des Netzwerks oder in der Cloud:
Im Zuge einer Datenausdünnung werden unnötige Daten entfernt, sodass nur die wirklich relevanten zum Vorschein kommen. Bei dem täglich steigenden Volumen produzierter Daten wird dieser Selektionsschritt zukünftig unumgänglich. Ein autonomes Auto zum Beispiel erzeugt jährlich Petabytes an Daten, etwa über den Gegenverkehr oder zu Straßenverhältnissen, die nicht zwangsläufig gebraucht und deshalb langfristig gespeichert werden müssten. Spätestens die zunehmende Vernetzung von intelligenten Produkten im Internet der Dinge wird zeigen, dass nicht die Masse der Daten entscheidend ist, sondern der wertvolle und nützliche Inhalt der Daten.