Zum Inhalt springen
Schadenserkennung mit Deep Learning

Explainable AI: Verstehen, wie Maschinen ticken

Autor: Marc Tesch / Redaktion: Diana Künstler • 25.8.2022 • ca. 1:00 Min

Inhalt
  1. Algorithmen, die auf Brücken starren
  2. Explainable AI: Verstehen, wie Maschinen ticken
Prinzip Explanable AI
Methoden der XAI sollen die Ergebnisfindung nicht linear programmierter Systeme als „Glass Box“ transparent machen, um Black-Box-Vorgänge zu vermeiden.
© Krauss – Own work/CC BY-SA 4.0/https://commons.wikimedia.org/w/index.php?curid=37333449

Anbieter zum Thema

Explainable Artificial Intelligence (XAI), zu Deutsch „erklärbare Künstliche Intelligenz“ oder auch „erklärbares Maschinenlernen“, ist ein Neologismus, der seit etwa 2004 in Forschung und Diskussion über Maschinenlernen verwendet wird. Auch wenn es derzeit keine einheitlich akzeptierte Definition des Begriffes gibt, lassen sich ihm aber doch bestimmte allgemeingültige Merkmale zuweisen. Demnach soll XAI eindeutig nachvollziehbar machen, auf welche Weise dynamische und nicht linear programmierte Systeme, zum Beispiel künstliche neuronale Netze, Deep-Learning-Systeme und genetische Algorithmen, zu Ergebnissen kommen. XAI ist eine technische Disziplin, die operative Methoden erarbeitet und bereitstellt, die zur Erklärung von AI-Systemen dienen.

Ohne Explainable AI gleichen einige Methoden des Maschinellen Lernens – insbesondere das Deep Learning – einem Black-Box-Vorgang, bei dem die Introspektion eines dynamischen Systems unbekannt oder unmöglich ist und der Anwender keine Kontrollmöglichkeiten hat, um zu verstehen, wie eine Software zur Lösung eines Problems gelangt.

Bestimmte Industriezweige und Dienstleistungsbereiche sind von XAI-Anforderungen besonders betroffen, da durch die dort immer intensivere Anwendung von KI-Systemen die „Rechenschaftspflicht“ mehr und mehr auf die Software und deren – teilweise überraschende – Ergebnisse verlagert wird. Folgende Bereiche stehen dabei speziell im Fokus: Antennendesign, Hochfrequenzhandel, medizinische Diagnostik, selbstfahrende Kraftfahrzeuge, neuronale Netzwerkbildgebung und das Training militärischer Strategien. (DK)