Forscher haben einen verblüffend einfachen Weg gefunden, eine aktuelle Bilderkennungs-KI so zu manipulieren, dass sie einen Apfel als iPod erkennt. Man muss der Software das gewünschte Ergebnis nur aufschreiben.
Trotz aller Fortschritte erweisen sich auch modernste selbstlernende Softwarelösungen für Künstliche Intelligenz regelmäßig als äußerst Fehleranfällig. Zu den jüngsten Kapriolen gehörten etwa ein Chatbot, der Verständnis für Hitlers Judenhass zeigte, eine Software zur Bewertung von Bewerbern, die Frauen diskriminierte, eine Gesichtserkennung, die dunkelhäutige automatisch als Verbrecher einstufte sowie ein smarter Lautsprecher, der auf einen vermeintlichen Befehl aus dem Fernseher hin Tausende Puppenhäuser bestellte. Besonders augenscheinlich werden die Fehler aber naturgemäß bei Bilderkennungs-Software. Während viele Darstellungen erstaunlich präzise erkannt werden, passiert es dennoch gleichzeitig, dass etwa Hunde als Muffin und Schmetterlinge als Waschmaschinen erkannt werden. Wozu das im Ernstfall führen kann, zeigte der »Autopilot« eines Fahrzeugs, der den Anhänger eines LKW für eine Wolke hielt und damit einen tödlichen Unfall verursachte.
Doch dieses Problem in den Griff zu bekommen, ist alles andere als trivial. Da bei selbstlernenden Systemen nicht genau bekannt ist, auf welcher Basis die Entscheidungen gefällt werden, ist es äußerst schwierig im Detail herauszufinden, was die KI in solchen Fällen irritiert. Die Ursache kann genauso gut in der Art und Menge der Grunddaten liegen, wie in der Lernmethode und dem Verlauf, im Code und Algorithmus selbst sowie in der Wahl des Einsatzgebiets – oder aber in einer Kombination dieser Faktoren. Erst durch das Studieren falscher Ergebnisse lässt sich das, etwa unter Zuhilfenahme sogenannter Activation Maps, einigermaßen eingrenzen. So wie bei einer Bilderkennung, die Katzen als Hunde klassifizierte, weil sie einerseits vergleichsweise groß erschienen und auf Hintergründen wie einer Wiese unterwegs waren, wo das System aus seiner Erfahrung eher Hunde vermutete. Manchmal lassen sich damit Fehlentscheidungen sogar ganz bewusst provozieren und ausnutzen. Dazu muss nicht einmal der gesamte Hintergrund ausgetauscht werden, meist reicht es schon, wenn die Bilder mit einigen speziell platzierten Pixeln versehen werden.
Um die Fehlerquote zu reduzieren, wird gerne auf eine Ausweitung der prägnanten Faktoren zur Erkennung gesetzt. Im Beispiel der Katzen und Hunde wären das beispielsweise die Augen und Krallen. Die jüngste Generation der intelligenten Bilderkennung nimmt deshalb auch auf dem Bild gefundenen Text und Symbole in die Erkennung mit auf. Während das im normalen Betrieb die Erkennungsrate steigert, macht es die KI jedoch besonders anfällig für Täuschungsversuche, wie jetzt Experten von Open AI eindrucksvoll gezeigt haben. Dazu braucht es weder besonderes Wissen über Code und KI, noch technische Hilfsmittel. Ein einfacher Kugelschreiber reicht, um die vermeintlich intelligente Maschine vorzuführen.