Die aktuell verfügbaren KI-Anwendungen sind trotz Machine Learning noch nicht in der Lage, ihren durch den Algorithmus vorgegebenen Weg zu verlassen und zur Abwechslung einfach mal etwas anderes zu tun. Eine KI, die Experten für die Tätigkeit eines Roboters in einer Fertigungslinie programmiert haben, ist nicht fähig, mal eben in einer anderen zu arbeiten. Wissenschaftler bezeichnen diese als schwache KIs – und träumen von starken KIs. Noch ist es niemandem gelungen, eine KI zu programmieren, die die intellektuellen Fähigkeiten des Menschen auch nur annähernd simulieren kann. Eine starke KI müsste in der Lage sein, logisch zu denken, Entscheidungen auch tatsächlich wie ein Mensch zu fällen, also beispielsweise zwischen zwei gleich schlechten Alternativen abzuwägen. Sie müsste sich planvoll neue Wissensgebiete erschließen und sich systematisch selbst anlernen. Vor allem aber müsste sie in natürlicher Sprache selbständig Ideen formulieren und alle ihre Kompetenzen auch in ein Wertesystem einordnen und einem höheren oder ferneren Ziel unterordnen können. Kurzum: Sie müsste nach ethischen, moralischen und sozialen Kategorien ihr Verhalten und ihre Entscheidungen verantwortungsvoll selbst steuern. Das bedeutet: Ohne den Faktor Mensch wird es bei aller Dynamik der technologischen Entwicklung in der Digitalen Transformation auf absehbare Zeit nicht gehen.
Wer korrigiert die KI?
Bereits bei heutigen Anwendungen mit schwacher KI stellen sich ethische Fragen. Was passiert, wenn eine KI durch Machine Learning diskriminierende Entscheidungen fällt? Bei Finanzdienstleistern sind KIs im Einsatz – sogar schon länger – als es Chatbots gibt. Mit der „falschen Adresse“ oder einem Schufa-Eintrag kann es schon länger passieren, dass eine Versicherung oder ein Kredit verweigert wird. Und wie soll sich ein autonomer und KI-basierter Roboter in einer Smart Factory verhalten, wenn er vor zwei gleich schlechte Alternativen gestellt in beiden Fällen einen menschlichen Kollegen verletzen würde? Mit solchen Fragen beschäftigte sich kürzlich ein Expertengremium der EU, das Ende 2018 seine ethischen Leitlinien zur Diskussion stellte und im April seine finale Version veröffentlichte. Bis Juni 2019 erarbeitete das Gremium eine Handlungsempfehlung für die EU. Nach allem, was bisher bekannt ist, greifen diese Leitlinien aber nicht weit genug. Sie beschreiben einen Weg, „den größtmöglichen Nutzen aus der KI zu erzielen und gleichzeitig die geringstmöglichen Risiken einzugehen. Um sicherzugehen, dass wir auf dem richtigen Weg bleiben, brauchen wir einen auf den Menschen ausgerichteten (‚menschenzentrierten‘) Ansatz für die KI“. Das Gremium hat auch eine Checkliste mit Fragen für Anbieter von KI entwickelt, wie sie ihre Systeme sicher betreiben können. Leider aber fehlen Empfehlungen an die EU-Kommission, welche Mindestanforderungen und Sicherheitsauflagen sie den KI-Betreibern auferlegen sollten, damit der Mensch als Gestalter und Nutznießer der Digitalen Transformation wirklich im Fokus bleibt. Denn eines ist klar: Eine wirtschaftlich erfolgreiche KI werden Betreiber nicht ändern, nur weil sie ein wenig diskriminierend agiert.
Mehr Transparenz beim Einsatz von KI
Hier müssen die EU und internationale Institutionen wie die UN klare Regeln aufstellen und anordnen, dass externe Institutionen die Einhaltung regelmäßig überprüfen dürfen. Eine notwendige Regel wäre beispielsweise, dass immer dann, wenn eine KI mit einem Menschen interagiert, diese als solche ausgewiesen wird und der menschliche Kollege beispielsweise durch Notausschalter immer am längeren Hebel sitzt. Oder im Fall, dass eine KI Entscheidungsbefugnisse erhält, muss der Mensch das Recht erhalten, eine natürliche Person wie beispielsweise den Betriebsrat oder eine andere verantwortliche Stelle im Unternehmen mit der Überprüfung einer KI-Entscheidung zu beauftragen.
Darüber hinaus müssen die Betreiber bei einer KI mit Machine Learning verpflichtet sein, ihre sich selbständig umschreibenden Algorithmen durch Testläufe zu überwachen. Bei einem KI-basierten Roboter sollten die Unternehmen schon aus Gründen der Betriebssicherheit ihre Algorithmen regelmäßig einer Prüfung unterziehen. Und weil es Menschen sind, die KI-Algorithmen schreiben, sollten diese durch Weiterbildung ihre Kompetenzen als Fachleute regelmäßig vertiefen. Wie früher bei der Dampfmaschine können verheerende Unfälle passieren, wenn zu viel Druck auf dem Kessel ist. Erst die regelmäßige Überprüfung durch den früheren Dampfkesselüberwachungsverein DÜV hat damals dazu geführt, dass technische Großanlagen, Fahrzeuge und Aufzüge bis hin zu Kraftwerken zu sicheren Einrichtungen wurden. Wenn uns also die Geschichte eines gelehrt hat, dann das: Ohne Überwachung durch unabhängige Dritte und lebenslange Weiterqualifizierung der menschlichen Fachkräfte wird es auch beim Einsatz von KI kaum gehen.
Markus Dohm, Leiter des Geschäftsbereichs Academy & Life Care bei TÜV Rheinland