Einfach mal so an den Rand verlagern lässt sich die Datenverarbeitung allerdings nicht – eine zusätzliche Hardware- und Software-Ausstattung wird gebraucht. Beispielsweise die Gateways, die in der Produktion oder im Feld für die Steuerung oder Überwachung von Maschinen, Anlagen oder Geräten eingesetzt werden. Bisher waren diese lediglich für den Transport von Informationen in und aus dem Netzwerk zuständig – eine Verarbeitung der Daten war damit jedoch nicht vorgesehen und auch nicht möglich. Solch ein einfaches Gateway reicht im Edge-Zeitalter aber nicht länger aus. Die bestehende Hardware muss um Edge-Computing-Komponenten erweitert werden, wie beispielsweise spezielle Server, Controller und Gateway-Systeme.
Ergänzend zur entsprechenden Erweiterung der Hardwareinfrastruktur sind auch neue Software-Werkzeuge für die Datenanalyse notwendig. Natürlich könnten traditionelle Business Intelligence-Software oder Reporting-Tools dafür in Betracht gezogen werden. Diese arbeiten auf Basis einer Batchverarbeitung und genügen so zwar für die grundsätzliche Datenanalyse gemäß den heutigen Anforderungen – aber keines dieser Instrumente wurde jemals zur Analyse von Datenströmen “vom Rande” der Cloud entwickelt. Um maximalen Nutzen aus den erhobenen Sensordaten zu ziehen, müssen diese nicht erst im Nachgang analysiert, sondern ständig überwacht und in maschinelle Lernverfahren übertragen werden, um in Echtzeit Anomalien zu erkennen und Fehler vorhersagen zu können.
Edge-Computing wird als Komplementärlösung für die Cloud weiter an Fahrt gewinnen und eine integrale Rolle bei IoT-Anwendungen spielen, wo Latenzzeiten und der hohe Bandbreitenbedarf problematisch sind. Zwar steckt die Anwendungspraxis von Edge-Computing heute noch in den Kinderschuhen, wichtige Aspekte wie Verarbeitungsgeschwindigkeit und Sicherheit sprechen jedoch für eine baldige Entfaltung des enormen Potenzials.
Stephan Ellenrieder, Senior Vice President Zentral- und Osteuropa sowie Geschäftsführer Deutschland bei PTC