Bei einer Überprüfung dieser These fiel dem inzwischen alarmierten Amazon-Team allerdings auf, dass es sich hier in einigen Fällen auch schlichtweg um solche Hochschulen handelte, die einen überdurchschnittlichen hohen Frauenanteil unter ihren Studenten haben. Auch hier hatte sich also durch die Hintertür wieder der gleiche Lernfehler auf Basis der frauenarmen Ausgangslage in die KI eingeschlichen. Selbst beim Sprachstil der Bewerbungen bevorzugte die Software die Vorlagen der bis dato dominierenden Anzahl männlicher Mitarbeiter.
Da nicht ausgeschlossen werden kann, dass es weitere solcher Effekte gibt, hat Amazon die einzig richtige Entscheidung im eigenen Sinne und auch im Sinne der Bewerber getroffen und der diskriminierenden KI komplett den Stecker gezogen. Stattdessen muss das Team jetzt ganz neu denken und ansetzen und soll eine neue Lösung entwickeln, die statt auf der menschlich tendenziösen Ausgangslage auf Fakten und handfesten wissenschaftlichen Erkenntnissen aufbaut. Dazu soll sie beispielsweise auch Faktoren wie die Vielfältigkeit berücksichtigen, die nachgewiesenermaßen die Produktivität und Kreativität erhöhen.
Es bleibt nur zu wünschen, dass auch andere überenthusiastische KI-Entwickler und ihre Kunden aus solchen Fehlern lernen und ihre Lösungen entsprechend selbstkritisch hinterfragen, bevor sie ihnen allzu blauäugig Glauben schenken und sich damit gewaltig verrennen. Denn solche Fehler (Bias) wie Stereotypen stecken in vielen Bereichen unseres Alltags, die weder wir noch die Maschinen völlig durchschauen können. Wenn wir sie mit in die KI einspeisen, schreiben wir damit die Vorurteile unserer aktuellen Gesellschaft weiter oder verstärken sie gar noch.