Ein Großteil der Anstrengungen um die neue Datenpipeline geht von Programmierern und Datenwissenschaftlern aus. Es gelten alle Standard-Best-Practices der Softwareentwicklung. Das Schema, mit dem Daten extrahiert und transformiert werden, ändert sich von Zeit zu Zeit, davon gibt es Versionen. Eine Kopie der Rohdaten wird beibehalten, um zu einem neuen Schema zurückzukehren und es erneut zu verarbeiten. Verarbeitete Daten werden erneut gespeichert, um zurückgehen und iterativ noch mehr Wert daraus zu ziehen. Alle Modelle werden in Git oder einem Quellcode-Kontrollsystem geprüft. Die Zusammenarbeit mit großen Softwareentwicklern gewährleistet effiziente Prozesse und macht gute Ergebnisse wahrscheinlicher.
Verarbeitung dort ausführen, wo die Daten gespeichert sind
Eine häufige Frage ist, ob ein neues KI-System in einem lokalen Rechenzentrum vor Ort oder in der Cloud erstellt werden sollte. Das Verschieben großer Datensätze ist kostspielig und komplex, sowohl hinsichtlich der Netzwerkbandbreite als auch hinsichtlich der Zeit und Komplexität. Wenn alle Daten aus einer Cloud-App generiert werden, sollte die KI auch dort ausgeführt werden. Wenn die Daten in einem bereits vorhandenen Rechenzentrum generiert oder zentralisiert werden, sollte das KI-Programm dort laufen.
Die einzige Konstante ist Veränderung, besonders für Software
Um eine erfolgreiche Deep-Learning-Pipeline zu implementieren, sind Mitarbeiter, Software und Infrastruktur erforderlich. Dabei wird die Softwareschicht die höchste Änderungsrate erfahren. Neue Softwarefunktionen werden immer wieder hinzukommen, so dass die Pipeline alle wahrscheinlich alle drei, sechs oder neun Monate verändert werden muss. Die Mitarbeiter werden kaum so oft auswechselt werden, und bei der Infrastruktur ist es ebenso unwahrscheinlich. Aufgrund dieser unterschiedlichen Veränderungsraten ist es äußerst wichtig, auf Menschen und Infrastrukturen zurückzugreifen, die sich an Veränderungen anpassen können.
Fachkräfte einstellen und Berater hinzuziehen
Angesichts der schnellen Innovationsrate in diesem Bereich weiß niemand alles. Daher ist es auch wichtig, sich mit kompetenten Beratern und Lieferanten zu umgeben und Kontakte innerhalb der Interessengruppe zu pflegen. Wer darüber nachdenkt, wie KI seinem Unternehmen helfen kann, benötigt auch den richtigen Hardwarepartner, der bei der Produktauswahl sowie der Implementierung hilft.
„Ähnlich wie beim Thema “Cloud Computing“ gab es zu Beginn der Diskussion rund um Künstliche Intelligenz zunächst Begeisterung über die theoretischen Möglichkeiten. Es folgte eine Phase der Skepsis, in der das Pendel aber zurückschwang, als die Herausforderungen in der Praxis offensichtlich wurden. In der Folge wurden Schritt für Schritt Hürden überwunden, und heute die Cloud – on premise, privat oder public – allgegenwärtige Realität“, fasst Güner Aksoy zusammen. „ In Sachen Künstlicher Intelligenz und maschinellem Lernen sind wir nun an dem Punkt, dass die theoretischen Möglichkeiten nicht mehr an der technologischen Realität scheitern müsse. Die Lösungen stehen bereit, nun gilt es sie zu implementieren und effizient einzusetzen.“