„Zudem darf die EU nicht nur einen Blick aus der heutigen Perspektive auf KI werfen, sie sollte auch die bisherige und künftige Entwicklung berücksichtigen. Liest man aktuelle Nachrichten rund um KI, entsteht der Eindruck, künstliche Intelligenz sei mit Machine Learning gleichzusetzen, und hinter Machine Learning stecke immer Deep Learning – also lose an die Funktionsweise des menschlichen Gehirns angelegte Mechanismen. Doch es gibt noch weit mehr Technologien für Machine Learning, darunter auch einige klassische, die vielleicht weniger genau sind, dafür deutlich einfacher, transparenter und robuster.“ Außerdem gehe es bei KI nicht nur darum, wie Maschinen lernen, sondern auch wie sie schlussfolgern und entscheiden. Die dafür notwendigen Regeln und Logiken könnten auch genutzt werden, um Machine Learning zu kontrollieren, Richtlinien einzuhalten und ethische Standards zu berücksichtigen.
„Eine große Herausforderung ist, dass KI längst nicht mehr nur das Sammeln historischer Daten und deren Auswertung mit einem einzigen KI-Modell umfasst. Moderne KI-Systeme bestehen aus hunderten oder gar tausenden solcher Modelle, die ständig hinzulernen. Sie haben keine festen Release-Zyklen für das Entwickeln, Testen und Veröffentlichen – stattdessen entwickeln sie sich kontinuierlich weiter, passen sich an und beeinflussen mit ihren Entscheidungen auch, wo und wie sie weitere Erfahrungen sammeln, sodass sich selbstverstärkende Feedback-Schleifen entstehen können“, so van der Putten weiter.
„Mit Regeln und Vorschriften allein ist es daher nicht getan – es braucht immer auch den Willen des Entwicklers, eine KI fair, transparent und erklärbar zu gestalten. Darüber hinaus ist es sicher eine gute Idee, die neuen Regeln und Vorschriften für automatisierte Entscheidungen darauf hin zu überprüfen, ob und inwieweit sie bereits für Entscheidungen gelten, die heute allein von Menschen getroffen werden“, erklärt van der Putten.