Ethische KI

Irren ist menschlich – niemals zu irren, zuverlässige KI?

27. Mai 2021, 6:30 Uhr | Autor: Mohit Joshi / Redaktion: Diana Künstler

Fortsetzung des Artikels von Teil 1

Vorurteile durch Datenauswertung, Algorithmus-Audits und Training vermeiden

Voreingenommenheit wird von Menschen in die KI hineingetragen: Sie geben ihre Vorurteile an die KI über entsprechende Trainingsdaten weiter oder integrieren sie unbewusst in die von ihnen entwickelten Modelle. So musste Amazon beispielsweise sein Rekrutierungs-Tool wieder abschalten, als klar wurde, dass es hinsichtlich Frauen voreingenommen war. Ein von Microsoft Chatbots betriebener Twitter Account musste geschlossen werden, als der Algorithmus sich "beibrachte", Tweets mit einem rassistischen Beigeschmack zu posten. Eine pragmatische Bewertung solcher negativen Tendenzen sind unerlässlich: Nur so lässt sich sicherstellen, dass die KI von den "richtigen Datensätze" lernt. Der differentielle Datenschutz ist ein neuer Ansatz, der weißes Rauschen zum Daten-Mix hinzufügt. Der daraus resultierende Algorithmus ist schwer zu hacken – selbst für Cyber-Kriminelle, die Zugang zu zusätzlichen Informationen haben. Es gibt Algorithmen, die Vorurteile erkennen und abschwächen. Damit lassen sich solche Daten ausgleichen. Der beste Weg, Anomalien zu erkennen, ist allerdings immer noch menschliches Eingreifen, das leider nicht skalierbar ist.

Die effektivsten Machine-Learning-Algorithmen sind diejenigen, die selbstständig lernen und improvisieren können – und zwar auf Basis frischer, echter Daten. Ist der Algorithmus entwickelt, sollte er auf der Grundlage der Ergebnisse getestet und neu trainiert werden. So lassen sich Vorurteile vermeiden, ohne die Vorhersagefähigkeit des Algorithmus zu beeinträchtigen. Schließlich ist ein multidisziplinärer, forschungsbasierter Ansatz für die Entwicklung von Algorithmen von großer Bedeutung.

Anbieter zum Thema

zu Matchmaker+

Multidisziplinärer Ansatz erlaubt bessere Erklärbarkeit von KI

Bei der Erklärbarkeit geht es darum, zu verstehen, wie ein KI-Modell zu seinen Schlussfolgerungen über ein bestimmtes Eingabeszenario kam. Wie intelligent, transparent und erklärbar ist das KI-System? Inwieweit können wir dem Ergebnis vertrauen? Wie konnte zum Beispiel ein Autopilotsensor in einem Tesla-Auto einen weißen Anhänger vor einem hellen Himmel nicht erkennen? Drei Beteiligte sind beim Thema Erklärbarkeit involviert: die Systementwickler, die Entscheider sowie Anwender. Die Entwickler benötigen Informationen zum Funktionsumfang der Modelle, während die Entscheider die relevanten Faktoren für die Entscheidungsfindung kennen müssen. Die Anwender hingegen möchten wissen, ob die KI vertrauenswürdig, fair und unparteiisch ist.

Ein KI-basiertes Modell sollte Menschen eine Entscheidungshilfe bieten: KI lieferte eine konkrete Empfehlung auf Basis einer Problemanalyse, kombiniert mit einer Einschätzung zur Wahrscheinlichkeit, die das Vertrauen in die entsprechende Analyse widerspiegelt. Das Modell sollte in der Lage sein, auf die Eingabedaten hinzuweisen, die als Belege für die besagte Schlussfolgerung verwendet wurden. Gleichzeitig muss aber auch darauf hingewiesen werden, dass verschiedene alternative Möglichkeiten ausgeschlossen wurden – und warum.

Daten-Risikobewusstsein und Schutz vor Sicherheitsrisiken

Wie bei den meisten digitalen Technologien kann eine einzige Verletzung oder ein einziger Hacker-Angriff die Daten und damit die Ergebnisse einer KI-Implementierung gefährden. Cyber-Kriminellen ist es außerdem möglich, durch eine Reihe von vorsätzlichen Fragen an ein KI-Modell sensible Informationen in Trainings-Datensätzen der KI zu beeinflussen. Kurz gesagt: KI-Modelle treffen auf Basis von Beispieldaten eine Annahme, die potenzielle Schwachpunkte im Algorithmus hinterlassen. Diese lassen sich von Gegnern identifizieren und ausnutzen. In solchen Fällen ist es wichtig, die Schwachstellen zu identifizieren und die Implementierung von Best Practices für Sicherheit und Datenschutz wird notwendig.

Die oben genannten Best Practices werden dazu beitragen, das erforderliche Gerüst für KI-Fähigkeiten zu entwickeln. Darauf basierend lassen sich die von Regierungen und Unternehmen definierten ethischen Richtlinien bereitstellen. Damit ist sichergestellt, dass Organisationen KI zum größeren Nutzen der menschlichen Gesellschaft mit minimalen Risiken für die menschlichen Werte einsetzen. Die Künstliche Intelligenz ist in der Lage, die Lebensqualität erheblich zu steigern. Führungskräfte über alle Branchen hinweg müssen einen Schwerpunkt auf KI legen, damit solche Nuancen sich handhaben lassen und gewährleistet ist, dass die Gesellschaft von den Vorteilen einer KI profitiert.

Mohit Joshi, President Infosys


  1. Irren ist menschlich – niemals zu irren, zuverlässige KI?
  2. Vorurteile durch Datenauswertung, Algorithmus-Audits und Training vermeiden

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu CE Infosys GmbH

Weitere Artikel zu Künstliche Intelligenz

Matchmaker+