Explainable Artificial Intelligence (XAI), zu Deutsch „erklärbare Künstliche Intelligenz“ oder auch „erklärbares Maschinenlernen“, ist ein Neologismus, der seit etwa 2004 in Forschung und Diskussion über Maschinenlernen verwendet wird. Auch wenn es derzeit keine einheitlich akzeptierte Definition des Begriffes gibt, lassen sich ihm aber doch bestimmte allgemeingültige Merkmale zuweisen. Demnach soll XAI eindeutig nachvollziehbar machen, auf welche Weise dynamische und nicht linear programmierte Systeme, zum Beispiel künstliche neuronale Netze, Deep-Learning-Systeme und genetische Algorithmen, zu Ergebnissen kommen. XAI ist eine technische Disziplin, die operative Methoden erarbeitet und bereitstellt, die zur Erklärung von AI-Systemen dienen.
Ohne Explainable AI gleichen einige Methoden des Maschinellen Lernens – insbesondere das Deep Learning – einem Black-Box-Vorgang, bei dem die Introspektion eines dynamischen Systems unbekannt oder unmöglich ist und der Anwender keine Kontrollmöglichkeiten hat, um zu verstehen, wie eine Software zur Lösung eines Problems gelangt.
Bestimmte Industriezweige und Dienstleistungsbereiche sind von XAI-Anforderungen besonders betroffen, da durch die dort immer intensivere Anwendung von KI-Systemen die „Rechenschaftspflicht“ mehr und mehr auf die Software und deren – teilweise überraschende – Ergebnisse verlagert wird. Folgende Bereiche stehen dabei speziell im Fokus: Antennendesign, Hochfrequenzhandel, medizinische Diagnostik, selbstfahrende Kraftfahrzeuge, neuronale Netzwerkbildgebung und das Training militärischer Strategien. (DK)