Mit großer Macht kommt große Verantwortung. Und neue Technologien ziehen unweigerlich unbeabsichtigte Folgen nach sich, sobald man ihre Möglichkeiten erforscht und beurteilt. Bringt diese Technologie zugleich große Macht mit sich, kann sie nicht nur Potenziale nach sich ziehen, sondern auch negative Auswirkungen haben. Künstliche Intelligenz (KI) ist eine solche Technik. Beispiele für negative ethische Folgen finden sich in den letzten Jahren in Vielzahl – von rassistischer Voreingenommenheit in Algorithmen im Gesundheitswesen über Rechenmaschinen zur Rückfallkriminalität bis hin zu hasserfüllten Chatbots.
Eine kürzlich durchgeführte Umfrage von Fico zeigt auf, dass es zwar viele Visionäre gibt, die meisten Unternehmen allerdings die potenziellen Risiken der von ihnen eingesetzten KI-Technik noch nicht vorhersehen oder zumindest umfassend verstehen können. Dies ebnet den Weg für Fehlanwendung, Missbrauch und mangelhaftes Design, was wiederum negative, unbeabsichtigte Auswirkungen haben kann.
Risikostufen
Die Einschätzung der Risiken bei einem Einsatz von KI beginnt mit dem Verständnis der potenziellen Schäden, die diese verursachen kann. Diese können beispielsweise Voreingenommenheit und Diskriminierung sein. KI-Systeme gewinnen Erkenntnisse aus Daten, die häufig gesellschaftliche Dynamiken widerspiegeln, darunter Marginalisierung, Ungleichheit und Diskriminierung. Diese Muster kann die künstliche Intelligenz reproduzieren, verstärken oder sogar vergrößern.
Ebenso problematisch kann die Verweigerung von Autonomie und Rechten sein. KI-Systeme verfügen über die Fähigkeit, die menschliche Autonomie und die Grundrechte zu fördern oder zu unterdrücken. Ohne Regress ist es bestenfalls schwierig und schlimmstenfalls unmöglich, gegen diese Verstöße vorzugehen.
Außerdem ist zu beachten, dass KI-Modelle komplexe Zusammenhänge erlernen können. Diese ermöglichen es ihnen, Rückschlüsse auf geschützte Attribute wie Alter oder Geschlecht zu ziehen, selbst wenn diese Attribute beim Training ursprünglich nicht mit einbezogen waren. Schließlich können die Systeme unerklärliche, unzuverlässige oder unsichere Ergebnisse liefern. KI-Modelle erstellen Prognosen, indem sie komplexe Korrelationen erlernen, die für den Menschen oft schwer zu verstehen sind.
Darüber hinaus können mangelhafte Design- und Produktionspraktiken zu Prognosen führen, die nicht immer präzise oder reproduzierbar sind. Dies kann unzuverlässige und somit auch unsichere Entscheidungen bewirken. Das unmittelbare Risiko besteht dabei für die Verbraucher, Stakeholder, Beschäftigte oder sogar ganze Teile der Bevölkerung, die mit dem KI-System in Berührung kommen. Diese Risiken ziehen auch sekundäre Auswirkungen nach sich. Während eine ganzheitliche rechtliche Infrastruktur für KI noch in der Entwicklung ist, sind viele der zuvor genannten Aspekte bereits geregelt. Dabei gelten die Datenschutz-Grundverordnung (DSGVO), in der das Recht der Verbraucher auf die Wahrung der Privatsphäre verankert ist, sowie die Charta der Grundrechte der Europäischen Union als Musterbeispiele. Ein Unternehmen, das ein mangelhaft konzipiertes KI-System einsetzt, riskiert nicht nur, Verbrauchern und Teilen der Bevölkerung potenziellen Schaden zuzufügen, sondern auch hohe rechtliche und finanzielle Strafen für ein solches Fehlverhalten.
Damit sind die Risiken noch nicht erschöpft. Ein tertiärer Effekt liegt darin, dass KI-Missbrauch oder -Versäumnisse auch das Vertrauen der Verbraucher schwächen und den Ruf eines Unternehmens schädigen. Zwar lassen sich diese negativen Auswirkungen schwieriger quantifizieren, sie sind jedoch genauso bedeutend.
Ethische KI im Unternehmen verankern
Nicht jede künstliche Intelligenz ist gleich. Einige Systeme sind harmloser als andere und unterliegen daher einer weniger strengen ethischen Kontrolle. Eine Anwendung zur Anomalieerkennung, die zur Überwachung des Zustands und der Langlebigkeit von Produktionsanlagen entwickelt ist, wird beispielsweise weniger wahrscheinlich ethische Bedenken auslösen als ein System zur Anomalieerkennung, das zur Überwachung von menschlichem Verhalten im Einsatz ist. Letzteres kann beispielsweise im Personalwesen so weit führen, dass nicht nur eine Überwachung und Analyse von Beschäftigten, sondern auch direkt eine Abmahnung und sogar Entlassung erfolgt.
Ein weiteres Beispiel sind Bild- und Videoerkennungssysteme. Hier ist die Erkennung von Produktfehlern am Fließband ethisch nicht annähernd so bedenklich wie Gesichtserkennungssysteme. Wenn das KI-System für den menschlichen Konsum oder die menschliche Interaktion konzipiert ist oder sich auf Daten stützt, die von oder über Menschen gesammelt wurden, dann ist eine ethische Analyse gerechtfertigt. Das letztendliche Ziel eines KI-Projektes ist jedoch nicht immer von Anfang an klar ersichtlich. Dies erfordert einen „grundlegenden Ansatz der Ethik“, um die Auswirkungen jeder KI-Initiative vom Konzept bis zur Umsetzung kontinuierlich zu bewerten.