Aus diesem Grund erörtert die von der Europäischen Kommission eingesetzte Expertengruppe für künstliche Intelligenz in ihrem Bericht „Ethics Guidelines for Trustworthy AI“ sieben Schlüsselanforderungen, die Unternehmen berücksichtigen sollten.
Menschliches Handeln und Kontrolle: Es sollte gewährleistet sein, dass das KI-System die Grundrechte und die Handlungsfähigkeit des Menschen nicht beeinträchtigt, indem es die menschliche Kontrolle durch Governance-Methoden wie „Human-in-the-Loop“ oder „Human-in-Command“ einbezieht.
Technische Zuverlässigkeit und Sicherheit: Soweit möglich, sollten die Betriebssicherheit sowie allgemeine Sicherheit, Genauigkeit, Verlässlichkeit und Zuverlässigkeit des KI-Systems garantiert sein. Das KI-System sollte widerstandsfähig gegen Angriffe und vor ausnutzbaren Sicherheitsschwachstellen geschützt sein. Es sollte genaue, verlässliche und reproduzierbare Vorhersagen treffen.
Datenschutz und Data Governance: Es ist sicherzustellen, dass das KI-System die Privatsphäre und den Datenschutz während des gesamten Lebenszyklus gewährleistet. Dies umfasst die Zeitspanne von der Datenerfassung über die Aufbereitung und Verarbeitung bis hin zum Datenzugriff. Zudem müssen alle Daten auf (soziale und statistische) Voreingenommenheit, Ungenauigkeiten, Fehler und Irrtümer geprüft sein.
Transparenz: Die Transparenz des KI-Systems in allen relevanten Prozessen sollte aufgezeigt sein. Dies beinhaltet, die Rückverfolgbarkeit von der Datenerfassung und -kennzeichnung bis hin zu den eingesetzten Algorithmen zu gewährleisten. Dabei sollte für Unternehmen die Erklärbarkeit nicht nur bei den Modellvorhersagen, sondern auch bei den technischen Prozessen und Designentscheidungen im Vordergrund stehen.
Diversität, Nicht-Diskriminierung und Fairness: Erkennbare und diskriminierende Voreingenommenheit in der Datenerhebungsphase sollte behoben sein. Selbst bei einer ordnungsgemäßen Data Governance können KI-Modelle dennoch ungerechte Ergebnisse generieren, die eine kontinuierliche Überwachung und Kontrolle erfordern.
Gesellschaftliches und ökologisches Wohlergehen: KI-Systeme sollten auf ihre globalen Auswirkungen hin geprüft sein. Dabei sollten Unternehmen den Ressourcen- und Energieverbrauch beim Modelltraining evaluieren sowie Entscheidungen für umweltfreundlichere Alternativen treffen. Des Weiteren gilt es, die allgemeinen Auswirkungen eines allgegenwärtigen KI-Systems auf das geistige und körperliche Wohlergehen von bestimmten Gruppen in der Bevölkerung zu berücksichtigen.
Verantwortlichkeit: Unternehmen sollten Kontrollmechanismen zur Gewährleistung einer verantwortungsvollen Implementierung von KI-Systemen einführen, einschließlich Überprüfung und Berichterstattung. Bei der Umsetzung dieser Anforderungen kann es zu Konflikten kommen und diese können wiederum zu Kompromisslösungen zwischen den KI-Systemen führen. Diese Kompromisse gilt es, in Hinblick auf ihre ethischen Risiken zu bewerten sowie Entscheidungen zu dokumentieren.
Diese Anforderungen sind als eine Art Checkliste zur Selbsteinschätzung zu verstehen, welche idealerweise ein multidisziplinäres Team, bestehend aus KI-Designern und -Entwicklern, Datenwissenschaftlern, Rechts- und Compliance-Beauftragten, Beschaffungsverantwortlichen sowie der Geschäftsführung, ausfüllt.
Fazit
Die KI-Landschaft ist noch in ihren Anfängen. Neue Anwendungen werden voraussichtlich zunehmen, da diese fortschrittlichen Systeme das Leben der Menschen weiterhin verbessern und Unternehmen Wettbewerbsvorteile verschaffen können. Die individuelle Gestaltung und der Einsatz von KI unter ethischen Gesichtspunkten im Unternehmen ermöglicht es, die Leistung und das Potenzial dieser Technologie zu maximieren und zugleich ihre Risiken zu minimieren und abzuschwächen.
Melanie Beck ist Machine Learning Research Engineer bei Cloudera.