Algorithmen steigern die Produktivität und helfen, die Instandhaltung planbarer zu gestalten. Ethische Fragen bleiben bislang schwach beleuchtet. Fest steht jedoch: KI ohne menschliche Intelligenz ist (noch) nicht möglich.
Der Branchenverband Bitkom hat zur diesjährigen Hannover Messe 555 Unternehmen mit über 100 Mitarbeitern befragt und festgestellt, dass bisher nur zwölf Prozent der deutschen Industrieunternehmen Künstliche Intelligenz (KI) im Zusammenhang mit Industrie 4.0 nutzen. Die Erwartungen an KI sind aber so groß, dass der Einsatz nun wohl exponentiell zunehmen dürfte. Vor allem erwarten die Industrieunternehmen eine Steigerung ihrer Produktivität, eine Verbesserung ihrer vorausschauenden Wartung und Instandhaltung sowie eine Optimierung ihrer Produktions- und Fertigungsprozesse. Die Befragten gaben zudem an, dass sie 2019 rund fünf Prozent ihres Umsatzes in die Digitalisierung investieren wollen. Die Hoffnungen richten sich auf die Realisierung von Smart Factories, in denen autonome Roboter Hand in Hand mit Menschen arbeiten, dabei niemals müde werden und sogar die Fehler ihrer menschlichen Kollegen rechtzeitig erkennen und für Korrekturen sorgen. Wie im Auto von morgen soll KI in Robotern zusammen mit einer Unzahl von Sensoren und Aktoren für eine autonome Aktion und Interaktion zwischen Maschinen und zwischen Menschen und Maschinen sorgen. Um dieses Ziel zu erreichen, müssen solche Systeme in Echtzeit große Datenmengen verarbeiten, Muster erkennen, Handlungsoptionen ableiten und umsetzen. Sie müssen also ähnlich wie KI heute schon in Wissenschaft, Medizin, Marketing und selbst für Juristen zu vorgegebenen oder vorgefundenen oder gerade entstehenden Problemen Lösungen finden.
Wie funktioniert KI?
Künstliche Intelligenz orientiert sich am menschlichen Intelligenzbegriff und versucht, die Erkenntnis- und Entscheidungsfähigkeit des Menschen zu imitieren. Schon heute gelingt es zumindest, KI-Systeme intelligent erscheinen zu lassen. Sie sind in der Lage, große Datenmengen in kurzer Zeit mit von Menschen geschriebenen Algorithmen auf Muster hin zu analysieren. Den Algorithmen kommt dabei eine Schlüsselfunktion zu. Darin sind Anweisungen definiert, um ein Problem systematisch zu lösen. Wie ein Bauplan oder eine Gebrauchsanweisung verfolgt der Algorithmus einen vorgegebenen Weg und führt zu einem eindeutigen Ergebnis. Um die Leistungsfähigkeit von KI zu steigern, entwickelten Neurowissenschaftler und Informatiker Künstliche Neuronale Netze (KNN), die sich am biologischen Vorbild der Vernetzung von Neuronen im Gehirn orientieren. KNN sind in der Lage, sich jederzeit durch neue Informationen, die sie bei Lernprozessen ähnlich wie das Gehirn verarbeiten, neu zu vernetzen oder alte Verbindungen höher oder geringer zu gewichten oder vollständig aufzulösen. Durch die KNN sind auch KI-Algorithmen heute in der Lage, bei ihrer Anwendung zu „lernen“, sich also selbständig weiterzuentwickeln. Dieser Prozess wird als Machine oder Deep Learning bezeichnet. Was der Mensch als Erkenntnis speichert, sich jederzeit daran erinnern und wieder anwenden kann, bedeutet bei den Maschinen, dass sie ihren Algorithmus „umschreiben“, um die ihnen gestellten Aufgaben immer besser lösen zu können. Aber dabei verlassen sie nicht den vorgezeichneten Weg ihrer Aufgabe. Zumindest bisher nur selten, wie das Beispiel aus dem Forschungslabor von Facebook zeigte: 2017 mussten die Facebook-Programmierer ein KI-System aus zwei Bots abschalten, als sie bemerkten, dass sich die beiden in einer selbsterfundenen Sprache „unterhielten“. Die Programmierer hatten vergessen, den Bots vorzuschreiben, in Englisch zu kommunizieren. Diese wollten ihre Kommunikation mutmaßlich effektiver gestalten und sprachen ein Kauderwelsch, das sie nur untereinander verstanden. Den KI-Experten war das nicht mehr geheuer und sie schalteten die Bob und Alice getauften Bots kurzerhand ab. Dhruv Batra, Gastwissenschaftler von Georgia Tech bei Facebook AI Research, gab danach zu: „Es ist wichtig, sich daran zu erinnern, dass es keine zweisprachigen Sprecher von KI und menschlichen Sprachen gibt. Wir verstehen bereits im Allgemeinen nicht, wie komplexe KIs denken, weil wir nicht wirklich in ihren Denkprozess sehen können. Das Hinzufügen von KI-zu-KI-Gesprächen zu diesem Szenario würde dieses Problem nur noch verschärfen.“