Managed Artificial Intelligence Services

Mit KI-Services in den Produktivbetrieb

10. November 2020, 13:30 Uhr | Autoren: Niels Pothmann und Andree Kupka / Redaktion: Sabine Narloch
© xyz+ | Adobe Stock

Kommen KI-basierte Applikationen zum Einsatz, werden Mitarbeiter meist entlastet oder Prozesse beschleunigt. Doch KI-Services erfordern bei der Überführung in den Produktivbetrieb eine technische Überwachung und bedarfsgerechte Anpassungen. Dabei können Managed AI Services unterstützen.

Bei KI-Projekten kommt üblicherweise ein mehrstufiges Vorgehensmodell zur Anwendung: Im ersten Schritt ist es erforderlich, relevante Use Cases zu identifizieren. Ausgehend von der Ist-Situation ist dabei zu analysieren, ob die vorhandenen Daten, Systeme und Prozesse für die Umsetzung des favorisierten Use Case geeignet sind. Danach gilt es, die Ziele und Anforderungen des Prototyps zu definieren, sie in ein Konzept zu überführen und den besten Lösungsansatz zu entwickeln. Der dritte Schritt besteht darin, den verifizierten Prototyp in ein Minimum Viable Product (MVP) zu überführen. Kontinuierliche Funktions-, Last- und Integrationstests sorgen für eine stabile Integration des KI-Services in die Betriebsumgebung. Der fertige KI-Service lässt sich dann über Schnittstellen in Applikationen, Prozesse und Systeme einbinden und ist beliebig skalierbar. In der vierten Phase scheitern viele KI-Projekte: Es gilt, den KI-Service in einer realen Produktivumgebung zuverlässig zu betreiben.

Managed AI Service für die letzte Meile
Um zu verhindern, dass KI-Projekte auf der letzten Meile fehlschlagen, kann es sinnvoll sein, dass Unternehmen die Betreuung von KI-Services durch Partner erwägen und sogenannte Managed AI Services in Anspruch nehmen. Während es bei klassischen Managed Services darum geht, wiederkehrende IT-Leistungen gemäß definierter Service Level Agreements (SLA) zu beziehen – vom Betrieb über die Überwachung bis hin zur Aktualisierung von Systemen und Applikationen –, haben Managed AI Services eine andere Stoßrichtung: Neben der Frage, wo ein KI-Service zu betreiben ist – im eigenen Rechenzentrum, On-Premises bei einem Dienstleister oder in der Cloud –, ist ein Aspekt besonders relevant: Der KI-Service ist kontinuierlich zu überwachen, und sein zugrundeliegendes Modell ist immer wieder anzupassen – und zwar im Live-Betrieb. Ein Beispiel: Ein Anlagenbauer nutzt eine KI-Applikation, die verschlissene Bauteile erkennt. Die Basis bildet eine Videoüberwachung der Anlagen. Für einen funktionierenden KI-Service ist das vorhandene Videomaterial zu sichten, ein Modell zu erstellen und die KI mit realen Daten so zu trainieren, dass sie Verschleißerscheinungen oder Leckagen identifiziert. Wenn das Unternehmen eine neue Anlage in Betrieb nimmt oder einzelne Maschinenteile tauscht, ist das Modell anzupassen und die KI von Neuem zu trainieren – eine Aufgabe, die großes Know-how erfordert und viele Ressourcen bindet. Mit Managed AI Services kann sich der Anlagenbauer stattdessen auf sein Tagesgeschäft konzentrieren. Um Re-Training und Produktivstellung kümmern sich die Data- und KI-Experten des Dienstleisters.

Das Deployment im Griff haben
Um Managed AI Services professionell erbringen zu können, braucht es ein interdisziplinäres Projektteam, dem ein Data Scientist beziehungsweise Machine Learning Engineer, Data Engineer oder Data Architect, Cloud Architect und DevOps Engineer angehören. Der Data Scientist überführt die Aufgabenstellung mithilfe von KI und Machine Learning in automatisierte Verfahren. Der Data Engineer verantwortet die Erfassung und Konsolidierung der benötigten Daten. Während der Cloud Architekt eine für die Entwicklung und den späteren Betrieb sichere und hochverfügbare IT-Infrastruktur einrichtet, bildet der DevOps Engineer die Schnittstelle zwischen Entwicklung und Betrieb.

Ein endloser Kreislauf
Um einen KI-Service in den Produktivbetrieb zu überführen, muss das Projektteam reibungslos zusammenarbeiten. Der Data Scientist entwickelt ein KI-Modell in einer sogenannten „Sandbox“. Dabei experimentiert er mit Testdaten. Der Data Engineer hingegen stellt die dauerhafte Verbindung des trainierten KI-Modells mit den realen Betriebsdaten her, und der DevOps Engineer begleitet den besonders wichtigen Part der Produktivstellung. Der KI-Service verlässt die „Sandbox“, er geht über in eine gesicherte Infrastruktur und muss in Echtzeit zuverlässig funktionieren. Von diesem Zeitpunkt an ist er fortlaufend zu betreuen und zu verbessern. Im Produktivbetrieb erzeugt ein KI-Service Unmengen an Daten. Darum ist zu prüfen, ob das ursprüngliche Modell mit den generierten Daten weiterhin plausibel ist. Sollte das nicht der Fall sein, muss es der Data Scientist anpassen – ebenso wie die jeweiligen Prozesse. Hierfür muss er auf vorhandene Betriebsmodelle und -daten zugreifen können. Um das angepasste Modell unter der Aufsicht des DevOps Engineers ein zweites Mal in die Produktivumgebung einzubinden, ist die KI vorab erneut zu trainieren (Re-Training) und zu testen. Und dann beginnt der Prozess von vorne – ein endloser Kreislauf, der nur dann reibungslos verläuft, wenn Entwicklung und Deployment nahtlos ineinander übergehen. Hinzu kommt, dass sich die äußeren Umstände und die Anforderungen an einen KI-Service schlagartig ändern können. Darauf flexibel zu reagieren, ist ein Muss. Anpassungen im Trial-and-Error-Verfahren, wie sie in der Entwicklungsphase möglich waren, sind im Live-Betrieb tabu. Empfehlenswert sind darum agile Methoden wie Continuous Integration, Continuous Delivery und Continuous Deployment. Sie verkürzen die Zeit, bis ein neues Modell in den Live-Betrieb übergeht.

Anbieter zum Thema

zu Matchmaker+

  1. Mit KI-Services in den Produktivbetrieb
  2. Monitoring ist Pflicht

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu arvato AG

Weitere Artikel zu Arvato Systems Technologies GmbH

Weitere Artikel zu Digitale Transformation

Weitere Artikel zu Künstliche Intelligenz

Weitere Artikel zu Public Cloud

Weitere Artikel zu IoT-Anwendung

Matchmaker+