Lars, but not Least

Wenn Autos zu Rassisten werden

11. März 2019, 12:15 Uhr | Lars Bube

Fortsetzung des Artikels von Teil 1

Maschinelles Schwarz-Weiß-Denken

KI sollte weniger als Ersatz denn als Ergänzung für die menschliche Intelligenz begriffen werden
KI sollte weniger als Ersatz denn als Ergänzung für die menschliche Intelligenz begriffen werden

Damit werden aus fehlerhaften Datensätzen oder Auswertungsansätzen ganz schnell auch vermeintliche Intelligenzen mit reichlich tumbem Horizont. Immerhin können selbst ihre Entwickler bei aktuellen KI-Systemen oft nicht nachvollziehen, wie genau die Analyse und Bewertung erfolgt und ob sie überhaupt auf validen und reliablen Faktoren beruht. Dass in Gebieten in denen mehr Störche leben auch mehr Babys auf die Welt kommen, ist kein Beweis dafür, dass der Klapperstorch tatsächlich auch die Kinder bringt. Das weiß die Software allerdings nicht unbedingt. Statt wirklich objektive Entscheidungen zu treffen, übernehmen die Maschinen zudem auch noch menschliche Fehler. Ähnlich wie der Mensch von Vorurteilen, wird die KI dann vom sogenannten Bias in den Daten in ihrem Urteilsvermögen eingeschränkt. Am Ende kann es schnell passieren, dass sie genauso voreingenommen ist wie so mancher Einfaltspinsel, der seine (zu) einfachen Wahrheiten in der Filterblase weiter festigt. Und da der menschliche Einfluss auf alle vorhandenen Datenbasen wirkt, ist diesem Dilemma kaum beizukommen.

Beispiele, wozu das führen kann, gibt es inzwischen zur Genüge. Wie etwa Googles zumeist zwar treffsichere Bilderkennung, die aber gravierende Probleme damit hat, Menschen mit dunkler Hautfarbe von Gorillas zu unterscheiden. Dass die Lösung darin bestand, das Wort Gorilla aus den Suchabfragen zu streichen, zeigt eindrücklich, wie machtlos selbst einer der führenden Softwarekonzerne gegen den Bias ist. Ähnlich erging es Amazon mit einer KI-Software zum Bewerbermanagement, die Frauen aufgrund verschiedenster überhaupt nicht relevanter Faktoren aussortierte. Die Diskriminierung war so tief im System verankert, dass es letztlich abgeschaltet werden musste.

Jetzt zeigt eine neue Untersuchung des Georgia Institute of Technology, dass solche Probleme in der KI sogar lebensgefährlich werden können. Die Wissenschaftler nahmen typische Trainingsdaten für selbstlernende KI-Systeme in autonomen Fahrzeugen unter die Lupe und stellten dabei fest, dass diese zu signifikanten Problemen bei der Erkennung dunkelhäutiger Menschen führen. Um auszuschließen, dass es sich dabei um rein optische Schwierigkeiten wie etwa die Erkennung im Dunkeln handelt, wurden verschiedene Test bei unterschiedlichen Bedingungen durchgeführt. Immer mit dem gleichen Ergebnis eines signifikanten Unterschieds. Am Ende blieb die Fehlerquote beim Erkennen dunkelhäutiger Menschen im Schnitt rund fünf Prozentpunkte über dem Vergleichswert zu hellhäutigen.


  1. Wenn Autos zu Rassisten werden
  2. Maschinelles Schwarz-Weiß-Denken
  3. Wem gehört die KI?

Jetzt kostenfreie Newsletter bestellen!

Matchmaker+