Ethische KI

Die Bias-Problematik

23. März 2021, 14:10 Uhr | Autor: Rob Walker / Redaktion: Diana Künstler
Roboter Ethik KI
© willyambradberry-123rf

Nur ein verantwortlicher Umgang mit KI steigert die Akzeptanz bei den Anwendern. Wichtig ist dabei vor allem die Vermeidung der sogenannten Bias-Falle. Das heißt, alle KI-Anwendungen müssen vorurteils- und diskriminierungsfrei gestaltet werden.

Menschen mögen voreingenommen sein, es bedeutet aber nicht, dass für KI das Gleiche gelten muss. Algorithmen lernen ihr Verhalten auf Basis der Daten, mit denen sie trainiert  werden. Wenn die Daten unzureichend sind oder Verzerrungsmerkmale aufweisen, wird auch das KI-Modell lernen, danach zu handeln. Das sogenannte Bias-
Problem, also die algorithmische Voreingenommenheit, kann nur umgangen werden, wenn ein Data Scientist von Anfang an konsequent auf eine faire Gestaltung der KI-Modelle achtet.

Im vergangenen Jahr haben mehrere öffentlichkeitswirksame Vorfälle die Risiken einer unbeabsichtigten Verzerrung durch KI-Anwendungen und die damit verbundenen schädlichen Auswirkungen für Unternehmen aufgezeigt. Eine Diskriminierung hat immer ihren Preis: Umsatzeinbußen, Vertrauensverlust bei Kunden, Mitarbeitern und anderen Interessengruppen, Bußgelder und rechtliche Konsequenzen.

Die Probleme mit den Daten

Bei einigen Datentypen besteht prinzipiell eine höhere Gefahr, dass sie zur Diskriminierung bestimmter Gruppen genutzt werden. Es betrifft zum Beispiel Informationen zu Nationalität, Geschlecht oder Religion. Aber auch scheinbar „sichere“ Daten wie die Postleitzahl einer Person könnte in einer KI-Anwendung zu einer verzerrten Entscheidungsfindung führen. Wenn beispielsweise eine Bank typischerweise nicht viele Kredite an Menschen in einem Viertel mit einer ethnischen Minderheit vergibt, könnte die KI lernen, prinzipiell Menschen dieser Postleitzahl keine Kredite anzubieten – und so durch eine Hintertür eine rassistische Voreingenommenheit in das KI-Modell einführen. Selbst wenn also die ethnische Zughörigkeit bei der Programmierung keine Rolle spielt, ist es möglich, dass die Künstliche Intelligenz immer noch einen Weg für die Diskriminierung findet, ohne dass es die Bank letztlich bemerkt.

Unternehmen müssen in einem ersten Schritt folglich die von der KI genutzten Daten auf jeden Fall sorgfältig prüfen. Falls dieser Schritt unterbleibt, kann die verwendete KI zu einer unfairen Behandlung von Personen führen – wie etwa in diesem Beispiel zu einer unberechtigten und letztlich unethischen Limitierung von Darlehen für bestimmte Bevölkerungsgruppen. Um in die KI eingebaute Verzerrungen zu verhindern, müssen Unternehmen immer mit „sauberen Datenquellen“ bei der Erstellung von Modellen beginnen. Dabei ist insbesondere zu berücksichtigen, dass gerade Merkmale wie Bildungsniveau, Kreditwürdigkeit, Beruf, Beschäftigungsverhältnis, Muttersprache, Familienstand oder Anzahl der Follower in bestimmten Situationen falsche KI-Entscheidungen nach sich ziehen können. Unternehmen können solche potenziellen Probleme kaum ohne die Hilfe einer Technologie identifizieren, die genau für diese Analyse ausgelegt ist.

 

Identifizierung und Beseitigung von Bias

Es liegt folglich in der Verantwortung der Unternehmen, eine Technologie zur Bias-Erkennung in alle KI-Modelle zu integrieren, insbesondere in regulierten Branchen wie bei Finanzdienstleistern oder Versicherungen, bei denen die Nichteinhaltung von Compliance-Vorgaben einen schwerwiegenden Verstoß darstellt. Die Erkennung etwaiger Verzerrungen sollte dabei nicht nur monatlich oder sogar nur vierteljährlich erfolgen. Unternehmen und Organisationen müssen ihre selbstlernenden KI-Modelle vielmehr kontinuierlich im 24/7-Betrieb überwachen, um ein diskriminierendes Verhalten proaktiv zu erkennen und rechtzeitig zu beseitigen.

Die Evaluierung von KI-Trainingsdaten und die Simulation realer Szenarien vor dem Einsatz der Künstlichen Intelligenz hilft dabei, potenzielle Biases zu erkennen, bevor sie Schaden anrichten können. Vor allem bei aktuellen, leistungsstarken Anwendungen des Maschinellen Lernens ist diese Vorgehensweise unerlässlich, da sie oft undurchsichtige Algorithmen enthalten und damit integrierte Verzerrungen leicht verdecken können. Auf jeden Fall muss jeder KI-Nutzer die Erkenntnis gewinnen, dass eine zuverlässige Detektion von Verzerrungen nicht manuell erfolgen kann. An der Nutzung einer adäquaten  Technologie für diese Analysezwecke führt kein Weg vorbei. Und diesen Weg muss ein Unternehmen auch einschlagen, schließlich ist die Unterbindung von Vorurteilen bei KI-Entscheidungen ein absolutes Muss – gerade hinsichtlich der aktuellen Diskussionen rund um die ethischen Implikationen von KI und die Vermeidung von sozialen Ungerechtigkeiten.

Rob Walker ist Vice President of Decision Management & Analytics bei Pegasystems


Das könnte Sie auch interessieren

Verwandte Artikel

Pegasystems

Künstliche Intelligenz

IoT