Datenverarbeitung im IoT

Cloud- versus Edge-Computing

6. Juni 2016, 12:53 Uhr | Autor: Wolfgang Wanner / Redaktion: Markus Kien

Fortsetzung des Artikels von Teil 1

Der zentrale Kraftprotz

Sandbox
Auf Routern und Störmeldern von Insys können dank integrierter Linux Sandbox beispielsweise Anwendungen laufen, um Daten vollautomatisch an Clouds wie „Cumulocity“ oder die „Telekom Cloud der Dinge“ weiterzureichen. Die Konfiguration findet komplett in der Anwendung vor Ort statt, kann aber bei Bedarf in der Cloud angepasst und ergänzt werden.
© Insys

Cloud-Computing ist bekannt aus der Office-IT-Welt: die Amazon-Cloud, Apples iCloud, die IBM-Cloud oder die Microsoft-Cloud mit dem Dienst Office365 sind weit verbreitet. Einfach gesagt ist damit das Speichern von Daten in einem externen Rechenzentrum und das Ausführen von Programmen gemeint, die auf entfernten Servern liegen.

Cloud-Computing macht Rechenkapazität sowie leistungsstarke Rechner und Speicher für jedermann und an jedem Ort mit Internetverbindung nutzbar. Im ersten Fall spricht man von „Platform as a Service“, im zweiten von „Infrastructure as a Service“. Im Umfeld von M2M setzen Firmen Cloud-Computing derzeit meist für die Zustandsüberwachung – Condition-Monitoring – ein. Die Daten werden analysiert, verarbeitet und meist auch visualisiert. Zusätzlich können beispielsweise ereignisgesteuerte Alarme bei Über- und Unterschreiten von Schwellwerten definiert werden. Derzeit entstehen gerade im Cloud-Umfeld generische Programme, auf die Nutzer als „Software as a Service“ zurückgreifen oder sie als Basis für eigene Entwicklungen einsetzen können.

Auf den ersten Blick weist eine Cloud-Lösung somit viele Vorteile auf: Es entstehen Kosten nur bei der Nutzung von Infrastruktur, Plattformen oder Services. Die benötigten Leistungen sind in der Regel anpass- und skalierbar. Außerdem wird meist eine hohe Verfügbarkeit garantiert. Ebenso erfüllen professionelle Rechenzentren hohe Anforderungen an Datensicherheit und Datenschutz. Dennoch sollte man sich vorab informieren, ob das ausgewählte Rechenzentrum alles bietet, was die eigene Applikation heute und in Zukunft erfordert.

Die fortlaufenden Datenschutzdiskussionen, vor allem bei Diensten aus dem Ausland, zeigen, dass Fragen zu klären sind: „Wo liegen meine Daten?“, „Wer hat darauf Zugriff?“ und „Wie sicher sind meine Daten?“. Werden Daten unterschiedlicher Quellen zentral gesammelt und wiederum von mehreren Beteiligten benötigt, muss außerdem geklärt werden, wem die sie eigentlich gehören und ob beziehungsweise wie diese gegebenenfalls von Dritten genutzt werden dürfen. Neben dem eher rechtlichen Themenblock gibt es applikationsabhängig weitere Punkte, die beachtet werden müssen. Die Einrichtung einer Cloud-Lösung sowie die konkrete Reaktion auf Daten einzelner Bestandteile sind bei größeren Anwendungen oftmals komplexer zu realisieren als bei der Nutzung dezentraler „Intelligenz“. Damit entstehen hinsichtlich der Programmierung oder Konfiguration mehr Aufwand und Kosten.

Natürlich bedarf es bei einer cloudbasierten Lösung an zentraler Stelle deutlich mehr Rechenleistung und Speicher, wenn viele Daten auflaufen, gesichert und verarbeitet werden. Logisch ist, dass eine solche Lösung nur funktionieren kann, wenn sowohl die Systeme vor Ort als auch die Cloud selbst hoch verfügbar und erreichbar sind. Da hier mehrere Komponenten zusammenspielen müssen, wie zum Beispiel die Übertragung im eigenen Firmennetz und anschließend per DSL-Leitung oder Mobilfunk, sind Szenarien zu entwickeln, die bei einem Ausfall einzelner Komponenten dieser Strecke zum Tragen kommen. Unbedingt angesprochen werden müssen auch die Technologiezyklen, welche der Cloud-Nutzer im Regelfall nicht selbst in der Hand hat. Ein deutlich häufigerer Wechsel des Equipments kann zu Kompatibilitäts- und anderen Problemen in Bezug auf die Funktionsfähigkeit der Lösung führen.

Ein sinnvoller Mittelweg

Schließen die Anforderungen an eine Anwendung nicht den einen oder anderen Ansatz von Anfang an aus, ist eine Kombination aus Edge-und Cloud-Computing die logische und beste Wahl. Bei datenintensiven Anwendungen ebenso wie bei prozesstechnisch eminent wichtigen, kurzfristigen Reaktionszeiten empfiehlt sich eine Vorverarbeitung vor Ort. Ein Beispiel ist das Handling von Waren mittels RFID-Labels. Ein fortwährender Abgleich je Label mit einer zentralen Cloud kann bei Ausfall der Datenübertragung oder Cloud den Stopp in einem automatisierten Prozess zur Folge haben.

Besser wäre in solch einem Fall eine zum Beispiel tägliche Übermittlung der zu verarbeitenden Labels aus einer Zentrale sowie die Rücksendung einer Ergebnisliste. Der eigentliche Abgleich findet vor Ort statt. Nur in Ausnahmefällen erfolgt ein direkter Zugriff von oder zur Cloud. Somit ist die zentrale Leitstelle über alle Vorgänge informiert, erlaubt aber eine Autonomie und sichert die Produktivität. Damit werden Personal und Rechenressourcen geschont, Übertragungskosten reduziert und das Ausfallrisiko minimiert.

Anbieter zum Thema

zu Matchmaker+

  1. Cloud- versus Edge-Computing
  2. Der zentrale Kraftprotz
  3. Expertenkommentar: Es gibt kein Entweder-oder

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu INSYS icom

Weitere Artikel zu INSYS icom

Weitere Artikel zu Mobilfunk-Dienste

Weitere Artikel zu IoT Services

Matchmaker+