Vielleicht tröstet es, dass KIs erst mit riesigen Mengen an Daten gefüttert werden müssen, um ähnliche Leistungen wie der Mensch vollbringen zu können. Für die Algorithmen bilden sie die Basis, damit Muster erkannt und angewandt werden können, um menschliches Verhalten zu imitieren. Mit den Daten übernehmen KIs auch Vorurteile und Stereotypen des Menschen, was vor allem bei Programmen wie Chatbots deutlich wird, die ihre Routinen aus Sprachdaten ableiten.
Schon im April unterzogen Wissenschaftler um Aylin Caliskan von der Princeton University eine derartige KI namens »GloVe« deshalb einem impliziten Assoziationstest. Probanden müssen dabei Paare mit Ausdrücken bilden, die für sie ähnlich erscheinen sowie Paare mit Begriffen, die für sie nicht zusammengehören. So wird »Blume« oft mit »angenehm« assoziiert, »Insekt« dagegen mit »unangenehm«. Die KI offenbarte bei dem Text dieselben Vorurteile und Stereotypen, die auch bei Menschen festgestellt wurden. Männliche Namen aus afroamerikanischen Kreisen wurden als eher unangenehm eingestuft, geläufige Namen unter Weißen dagegen als angenehm. Gleichzeitig wurden weibliche Namen eher mit Kunst verknüpft, männliche dagegen mit Mathematik.
Ähnlich verlief es bei einem Wettbewerb, bei dem Hunderttausende Menschen Fotos für einen Online-Schönheitswettbewerb einschickten. Doch statt gealterter Herren bildete eine KI die Jury — und sorgte für einen Eklat: Obwohl Einsendungen aus 100 Ländern vorlagen, war unter den 44 Ausgezeichneten nur einer mit dunkler Hautfarbe. Auch hier wiesen die Verantwortlichen jegliche unschöne Absicht von sich und verwiesen vielmehr auf die Datensammlung, auf die sich die KI stützte.
Nicht zu vergessen bleibt Microsofts Chatbot Tay, der im Dialog mit jungen Menschen ihre Kommunikation erlernen sollte. Nur einen Tag später war aus der KI ein rassistisches Scheusal geworden und Microsoft musste das Projekt beenden. Da KIs lernen wie Kleinkinder, ohne moralische und gesellschaftliche Konventionen hinterfragen zu können, trifft sie an ihren Gemeinheiten tatsächlich keine Schuld. Vielmehr müssen Verfahren entwickelt werden, mit denen solche Stereotypen aus bestehenden Datensätzen herausgefiltert werden. Dazu bräuchte es aber etwas Unmögliches: Menschen frei von Vorurteil.