Unternehmen, die vernetzte Geräte anbieten, stehen meist vor diversen technischen Problemen: Die Geräte senden die Daten oftmals nicht kontinuierlich, sondern in zeitlich ungeordneter Reihenfolge. Darüber hinaus gehen Daten sogar verloren oder werden mehrfach gesendet. Zudem ist das Datenformat in der Regel vom Gerät abhängig. Unternehmen seien hier vor die Herausforderung gestellt, die Daten schnell zu sortieren, zu klassifizieren und dann effizient zu verarbeiten, erklärt Rönner. Die Reaktion auf Ereignisse, die aus den Daten abgelesen werden, müsse so schnell von statten gehen, dass kontinuierliche Prozesse und Interaktionen mit Personen mit nur unmerklicher Verzögerung erfolgen.
Um mit diesen Herausforderungen umzugehen, haben die Giganten des Big Data eigene Systeme entwickelt, die von Spezialisten bedient werden. Diese Technologien und die Spezialisten sind jedoch rar und machen die Arbeit mit Big Data gerade für kleinere Unternehmen unerschwinglich. Gleichzeitig nimmt die technische Umstellung viel Zeit in Anspruch und würde die Einführung zu lange verzögen. Unternehmen müssen daher erprobte und sich bereits im Haus befindliche Technologien nutzen und diese müssen den Anforderungen Big Data verwalten zu können genügen. “Die Aufgabe besteht also darin”, so Rönner, “die technischen Voraussetzungen zu schaffen, beziehungsweise die bestehenden technischen Strukturen so zu optimieren, dass die Datenmengen schnell ausgewertet werden können. Eine IT-gestützte Beschleunigung der Datenanalyse ist ein möglicher Weg.“
Big Data-Analyse effizient beschleunigen
Mittlerweile gibt es verschiedene technische Lösungen für die Verarbeitung von Big Data. Ein Beispiel sind Business Intelligence Tools, die auch Open Source verfügbar sind. Diese Software wertet die Daten aus, nachdem diese in einer Datenbank oder einem Datawarehouse gespeichert wurden. „BI-Tools ermöglichen, aus Daten effizient Informationen zu erzeugen, die für die Geschäftsanalyse und Kundeninteraktion wertvolle Dienste leisten. Für eine Echtzeitanalyse der Daten reichen aber BI-Tools allein leider nicht aus“, erklärt Dr. Rönner. Dazu müssen diese Tools auf eine leistungsfähige Datenbank zugreifen können.
Ein Lösungsansatz für die beschleunigte Datenverarbeitung sind In-Memory-Systeme. Das Besondere an diesen Anwendungen ist, dass die Daten hier vorwiegend im Arbeitsspeicher eines Computers vorgehalten werden und dadurch dann auch deutlich schneller verarbeitet werden können, als auf Festplattenlaufwerken. Für analytische Verwendungenseinen diese Systeme eine gute Lösung, merkt der Swarm64-Geschäftsführer an, fügt jedoch hinzu: “Will ein Unternehmen aber große Datenmengen in der Datenbank halten, ist aufgrund der Kosten von In-Memory-Systemen abzuraten.“
Der Einsatz eines Datenbeschleunigers ist ebenfalls eine Option, die sich Unternehmen im Umgang mit Big Data bietet. „Um die Echtzeit-Verarbeitung von Big Data innerhalb eines bestehenden IT-Systems zu ermöglichen, nutzen wir als weltweit erster Anbieter für die Datenbeschleunigung FPGA-Technologie und darauf optimierte Softwarealgorithmen. Der Beschleuniger wird zusammen mit einer FPGA-Karte in den Server eingebaut, sodass mit den gewohnten Anwendungen weitergearbeitet und die Datenmengen in Echtzeit analysiert werden können“, sagt Dr. Rönner.
Unabhängig davon, für welche technische Lösung sich ein Unternehmen letztendlich entscheidet, ist die Entwicklung einer durchgängigen IoT-Strategie notwendig, um sich eine Marktposition zu sichern. IoT wird in den kommenden Jahren alle Lebens- und Geschäftsprozesse durchdringen und darum eine maßgebliche Rolle für den Erfolg von Unternehmen spielen.