Künstliche Intelligenz (KI) ist in aller Munde. Geht es nach Elon Musk oder dem jüngst verstorbenen Stephen Hawking, steht der KI-getriebene Weltuntergang bevor. Dies suggeriert, die KI-Forschung habe einen Quantensprung gemacht. Dabei sind wir weit von jener Superintelligenz entfernt, die uns Hollywood in Filmen wie "Ex_Machina", "Her" oder "AI" zeigt.
"Das Ziel der künstlichen Intelligenz besteht darin, Maschinen zu entwickeln, welche sich so verhalten, als wären sie intelligent," sagte der US-Informatiker Prof. John McCarthy schon 1955. "Intelligent" bedeutet in diesem Zusammenhang also ein System, das sich dynamisch verhält. Es ist wie ein leerer IQ-Container zu betrachten und benötigt unstrukturierte Informationen, um seine Sinne zu trainieren. Zudem braucht es ein semantisches Verständnis der Welt, um handlungsfähig zu sein, und eine detaillierte Karte seines Kontexts, um unabhängig zu agieren und Erfahrungen aus einem Kontext in den anderen zu übertragen. Es ist ein System, das mit allen notwendigen Mitteln ausgestattet ist, um Wissen zu entwickeln, auszubauen und aufrechtzuerhalten.
Es liegt in unserer Verantwortung, unser Wissen mit diesen Maschinen zu teilen, als würden wir es mit unseren Kindern, Partnern oder Kollegen teilen. Dies ist der einzige Weg, um diese Maschinen, bestehend aus Hard- und Software, in einen Status zu überführen, den wir als "intelligent" beschreiben. Nur damit helfen wir ihnen, täglich intelligenter zu werden, und legen damit die Grundlage, ein selbstlernendes System zu schaffen. In der Forschung unterscheidet man drei Typen von KI (Artificial Intelligence, AI):
Strong AI: Bei einer "starken" AI handelt es sich um eine selbstbewusste Maschine, die über Gedanken, Gefühle, ein Bewusstsein und die dazugehörigen neuronalen Verwachsungen verfügt. Wer sich allerdings schon auf eine Realität à la "Her" oder "Ex_Machina" freut, wird sich noch etwas gedulden müssen: Strong AI gibt es derzeit nicht, und es wird noch unbestimmte Zeit dauern, bis diese Form existieren wird.
Narrow AI: Die meisten Anwendungsfälle im KI-Bereich fokussieren sich aktuell darauf, Lösungen für ein sehr spezielles Problem zu bieten. Diese sogenannten Narrow AIs sind sehr gut darin, spezifische Aufgaben zu lösen, zum Beispiel das Empfehlen von Songs auf Pandora oder Analysen, um die Tomatenzucht in einem Gewächshaus zu optimieren.
General AI: Eine "allgemeine" AI ist in der Lage, Aufgaben aus unterschiedlichen Bereichen und Ursprüngen zu bearbeiten. Sie besitzt die Fähigkeit, die Trainingsintervalle von einem Bereich zu einem anderen zu verkürzen, indem sie die gesammelten Erfahrungen aus dem einen Bereich in einem anderen, themenfremden Bereich anwenden kann. Der hierfür notwendige Wissenstransfer ist nur dann möglich, wenn eine semantische Verbindung zwischen diesen Bereichen existiert. Je stärker und verdichteter diese Verbindung ist, desto schneller und einfacher lässt sich der Wissensübergang erreichen.
Überführen wir die KI-Diskussion in Richtung vernünftiger Überlegungen: Heute geht es bei KI nicht darum, das menschliche Gehirn nachzubilden. Es geht darum, ein System zu entwickeln, das sich verhalten kann wie ein Mensch. Unter dem Strich bedeutet KI somit die Vereinigung von Analysen, Problemlösungen und autonomer Automation, und dies unter Berücksichtigung von Daten, Wissen und Erfahrungen.
Amazon Alexa und Apple Siri zum Beispiel sind KI-Technologien, aber nicht intelligent. Dies bemerkt jeder, der schon einmal versucht hat, eine simple Konversation mit Alexa oder Siri zu führen. Dennoch handelt es sich bei Alexa und Siri um KI-Technologien. Beide nutzen Natural Language Processing (NLP) und Machine-Learning-Algorithmen zusammen mit Vorhersagemodellen.
Die ML-Algorithmen kommen zum Einsatz, um die Sprachkommandos des Anwenders in kleine Teile (Sound Bites) zu zerlegen. Anschließend werden diese Stücke anhand eines anderen Vorhersagemodells analysiert, um zu erkennen, welche Art von Anfrage vorliegt.
Allerdings sind Alexa und Siri weder intelligent noch selbstlernend. Man sollte sie als Datenbanken betrachten, die sich in den Cloud-Backends von Amazon und Apple befinden und eine zunehmenden Menge fertiger Antworten oder Anweisungen liefern. Besitzer eines Amazon Echo kennen das: Jeden Freitag erhalten sie eine E-Mail mit den neuesten Kommandos, die man nutzen kann, um Alexa zu kontrollieren oder mit ihr zu interagieren.
Neben der ständig wachsenden Datenbank hinter Alexa helfen die sogenannten "Alexa Skills" dabei, diesen virtuellen Assistenten "intelligenter" zu machen. Hierbei handelt es sich um nicht mehr als kleine Apps (wie für ein Android-Smartphone oder ein iPhone), ausgestattet mit Kommandos, stellbaren Fragen sowie fertigen Antworten und Anweisungen. Je mehr Alexa Skills aktiviert sind, desto intelligenter erscheint die Funktion, da der Anwender mehr Kommandos zur Verfügung hat, um mit ihr zu interagieren.
Interessant ist, dass Amazon mittlerweile 5.000 Mitarbeiter exklusiv an Alexa arbeiten lässt, um sie zu verbessern. Damit ist bald deutlich mehr Fortschritt zu erwarten. Doch auch selbstlernende Systeme existieren bereits. Verbindet man zum Beispiel ein iPhone über Bluetooth mit dem Fahrzeug und hinterlegt die Heimat- oder Büroadresse, wird das iPhone dem Anwender in kurzer Zeit anzeigen, wie lange er nach Hause oder zur Arbeit benötigt. In anderen Fällen macht "Apple Maps Destination" Vorhersagen für Ankunftszeiten zu Orten, die der Nutzer zwar öfters besucht, deren Adresse er aber nicht auf dem iPhone gespeichert hat - also lediglich auf Basis seiner Reisegewohnheiten.
Google Now arbeitet auf ähnliche Weise: Proaktiv stellt der Dienst dem Nutzer Informationen bereit, die er möglicherweise sucht, also Vorhersagen basierend auf dessen Suchverhalten. Und wenn man Google Now Zugang zu seinem Kalender gewährt, dann arbeitet der Dienst sogar als persönlicher Assistent oder Berater. Das Tool erinnert den Nutzer beispielsweise daran, dass er einen Termin hat, und empfiehlt, welches Verkehrsmittel er nehmen sollte, um rechtzeitig vor Ort zu sein.
Betrachten wir jeden einzelnen Tag als einen Prozess, der in einzelne Schritte (Sub-Prozesse) unterteilt ist. Dann erscheint KI als autonome Prozessautomation, die den Komfort erhöht und das Leben vereinfacht. Folgende Szenarien sind hier beispielsweise denkbar:
Alexa oder Siri als persönlicher "Wachhund" im Büro, als intelligenter Assistent, der Anrufe entgegennimmt und autonom Termine mit Kollegen aushandelt - insbesondere mit denen, die ständig ungefragt Kalendereinladungen schicken. Dies wäre vergleichbar mit einer frühen Variante von "Jarvis" aus dem Film "Iron Man".
Alexa oder Siri als persönlicher Assistent für unterschiedliche Lebensbereiche: Der Anwender hat einen Vortrag auf einer Konferenz, sein Flug nach Hause startet um 16:00 Uhr. Damit er den Flug rechtzeitig erreichen, bestellt sein virtueller Assistent ihm ein Taxi für 14:15 Uhr, da der Vortrag um 13:45 Uhr endet und angesichts der aktuellen Verkehrslage mit Stau zu rechnen ist. Der virtuelle Assistent sendet dem Anwender lediglich die Standortinformationen, wo sein Taxi ihn abholen wird. Dazu folgt der Assistent einfach dem gesamten Prozess, den der Mensch normalerweise durchlaufen würde: vom Herausnehmen des Smartphones aus der Tasche über das Öffnen der App und Suchen des Reiseziels bis hin zum Bestellen des Taxis. So hat man Hände und Gedanken frei für wesentlich wichtigere Dinge. Dazu muss man der KI natürlich Zugriff auf den Kalender, die Geolokationsdaten und weitere Informationen geben.
eine intelligente Variante des Küchenhelfers "Thermomix", der Speiseberater: Anhand dessen, was der Thermomix im Kühlschrank findet, macht er Vorschläge, welche Gerichte man kochen könnte. Sollten ein paar Zutaten für andere mögliche Gerichte fehlen, könnte er anbieten, diese direkt online zu bestellen. Oder der Gesundheitsberater: Basierend auf den Essgewohnheiten der letzten Wochen macht das Küchengerät seinen Besitzer freundlich darauf aufmerksam, dass das Tiramisu, das er gerade zubereitet, heute doch lieber nicht auf dem Speiseplan stehen sollte, da es nicht gut für die Kalorienaufnahme wäre.
KI ist der nächste logische Schritt nach dem Cloud Computing und profitiert gleichermaßen von dessen Erfolg. Die Cloud ist der Antrieb aus einem technologischen Blickwinkel, bei KI geht es um den Mehrwert für das Unternehmen: Auf Basis komplexer Analysen verfeinern KI-Anwendungen im Hintergrund die Kundenansprache und passen Produkte und Dienste besser an die jeweiligen Bedürfnisse an. Immer mehr Unternehmen wie Netflix, Spotify, Amazon, AirBnB, Uber oder Expedia setzen bereits auf KI-basierende Funktionen, die auf umfangreiche Datenverarbeitungs- und Analyseaufgaben zurückgreifen, um enger mit Kunden zu interagieren.
Als Teil der Strategie befähigt eine KI die Unternehmen dabei, ihren Geschäftsbetrieb und dessen Abläufe zu verbessern, zum Beispiel durch folgende Faktoren:
KI-Anwendungen besitzen bereits heute den notwendigen Reifegrad, um die Effizienz einzelner Prozesse zu erhöhen. Allerdings sollte man KI nicht ausschließlich aus einem operativen Blinkwinkel (Verbesserung der Effizienz) betrachten, sondern auch eine strategische Sichtweise einnehmen, um technische Möglichkeiten für neue Applikationen und Anwendungsfälle zu evaluieren. Denn bei KI geht es nicht nur darum, existierende Prozesse zu verbessern. Vielmehr wird KI in den kommenden fünf bis zehn Jahren zum "Game Changer" werden, Innovationszyklen beschleunigen und zu neuen Geschäftsmodellen führen. Und damit wird künstliche Intelligenz einen echten Mehrwert für Kunden, Partner sowie die eigenen Mitarbeiter schaffen.