Explainable AI (XAI)

Wie Antworten von KI-Sprachmodellen nachvollziehbar werden

12. August 2025, 16:30 Uhr | Autorin: Kira Vinogradova / Redaktion: Sabine Narloch
© Teki7 - shutterstock.com

Je mehr Entscheidungen und Interaktionen KI-Systeme übernehmen, desto wichtiger wird ihre Nachvollziehbarkeit. Über die Herausforderungen intransparenter KI-Systeme sowie Ansätze, um Entscheidungen und Funktionsweise von KI-Modellen verständlich zu machen.

Künstliche Intelligenz revolutioniert die Art und Weise, wie Unternehmen mit Texten und Sprache umgehen und ihre Services sowie Dienstleitungen ausrichten: Chatbots beantworten Kundenanfragen rund um die Uhr, Textklassifizierungssysteme sortieren eingehende E-Mails automatisch nach Priorität sowie Thema, und Large Language Models (LLMs) generieren in Sekundenschnelle maßgeschneiderte Texte. Diese KI-gestützten Technologien versprechen enorme Effizienzgewinne und eine Verbesserung des Kundenerlebnisses.

Doch je mehr Entscheidungen und Interaktionen KI-Systeme übernehmen, desto wichtiger wird ihre Nachvollziehbarkeit. Denn ohne Transparenz und Erklärbarkeit bleiben KI-Anwendungen eine Blackbox – sowohl für die Nutzer*innen als auch für die Unternehmen selbst. Das kann zu Misstrauen, Fehlentscheidungen und im schlimmsten Fall sogar rechtlichen Problemen führen.

Die Herausforderungen intransparenter KI-Systeme

Ein konkretes Beispiel: Ein Unternehmen setzt ein KI-System zur automatischen Klassifizierung von Kunden-E-Mails ein. Das stuft eine wichtige Verkaufschance fälschlicherweise als Beschwerde ein, die beim falschen Team landet. Der potenzielle Kunde erhält eine verspätete oder unpassende Antwort – etwa in Form einer automatisierten Entschuldigungsmail – und wendet sich frustriert an die Konkurrenz. Ohne Erklärbarkeit des Systems lässt sich im Nachhinein nicht nachvollziehen, warum dieser Fehler passiert ist und wie er sich in Zukunft vermeiden lässt.

Ähnliche Probleme können bei Chatbots auftreten: Wenn ein Bot im Kundendialog falsche oder irreführende Informationen liefert, schadet das dem Unternehmensimage und führt zu frustrierten Kund*innen. Auch bei der Textgenerierung mit LLMs besteht die Gefahr von Halluzinationen – also von der KI frei erfundene Fakten, die im Kontext plausibel klingen können. Ohne Erklärbarkeit bleibe in beiden Fällen offen, auf welcher Basis das Modell seine Aussagen trifft.

Die Intransparenz erschwert Akzeptanz bei Mitarbeitenden und Kund*innen, verhindert effektive Fehleranalysen und erhöht Compliance-Risiken – vor allem in regulierten Branchen, in denen strenge Anforderungen an die Dokumentation automatisierter Entscheidungen, den Datenschutz, den Schutz der Grundrechte und die Vermeidung von Diskriminierung gelten. Dies gilt insbesondere vor dem Hintergrund des EU AI Acts, der ab 2025 schrittweise in Kraft treten soll. Diese erste umfassende KI-Regulierung definiert Risikokategorien für KI-Systeme und legt Transparenzanforderungen insbesondere für Hochrisiko-Systeme fest. Kritisch sind dabei zudem ethische Bedenken: Intransparente KI-Systeme können unbeabsichtigt diskriminierend agieren. Zudem erschwert die fehlende Transparenz die Weiterentwicklung der Systeme selbst, da sich KI-Modelle ohne tieferes Verständnis der internen Abläufe nur schwer gezielt optimieren lassen.

Ansätze für verständliche KI-Entscheidungen

Um diese Herausforderungen zu meistern, gewinnt das Konzept der erklärbaren KI (Explainable AI oder kurz XAI) zunehmend an Bedeutung. XAI umfasst Methoden und Techniken, die es ermöglichen, die Entscheidungen und Funktionsweise von KI-Modellen für Menschen verständlich und nachvollziehbar zu machen.

Im Bereich der Textklassifizierung, LLMs und Chatbots lassen sich verschiedene XAI-Ansätze nutzen:

  • Chain-of-Thought: Diese Methode macht den Denkprozess eines Chatbots transparent, indem es eine Nutzeranfrage in logische Einzelschritte unterteilt. Das legt Zwischenergebnisse offen, die sich für nachfolgende Entscheidungen nutzen lassen. Fragt eine Kundin beispielsweise nach dem Status ihrer Bestellung, zeigt der Chatbot, welche internen Systeme er in welcher Reihenfolge abgefragt hat. Das erleichtert Entwickler*innen die Fehlersuche, etwa bei falschen Ressourcen oder gestörten Schnittstellen.
  • LIME (Local Interpretable Model-agnostic Explanations): Erklärt lokal, welche Bestandteile eines Inputs maßgeblich zu einer bestimmten Modellvorhersage beigetragen haben. Dazu erzeugt LIME gezielte Variationen des ursprünglichen Inputs und analysiert, wie sich diese auf das Ergebnis auswirken. Ein Beispiel: Die Begriffe dringend oder sofort erhöhen die Wahrscheinlichkeit, dass die KI eine E-Mail als prioritär eingestuft, während unzufrieden oder Problem zur Klassifikation als Beschwerde führen.
  • Counterfactual Explanations (Verbesserungsvorschläge): Zeigt auf, wie der Eingabetext minimal verändert werden müsste, um zu einer anderen Klassifizierung oder Antwort zu führen. Das ist besonders hilfreich, um die Entscheidungsgrenzen des Modells zu verstehen. Hätte der Kunde beispielsweise Preis anpassen statt Stornierung geschrieben, hätte der Chatbot ein Rabattangebot vorgeschlagen.
  • SHAP (Shapley Additive exPlanations): Weist jedem Eingabefaktor einen Beitrag (positiv oder negativ) zur Vorhersage zu, basierend auf einem fairen Verteilungsprinzip aus der Spieltheorie. So lässt sich quantifizieren, wie stark einzelne Wörter oder Merkmale die Entscheidung beeinflussen. Beispielsweise könnte das Wort Beschwerde hauptsächlich zur Entscheidung beigetragen haben, während lange Wartezeit nur einen geringen Einfluss hatte.

Anbieter zum Thema

zu Matchmaker+

  1. Wie Antworten von KI-Sprachmodellen nachvollziehbar werden
  2. Praktische Umsetzung von XAI

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Deutsche Telekom MMS

Weitere Artikel zu Künstliche Intelligenz (KI)

Weitere Artikel zu Künstliche Intelligenz

Matchmaker+