Interpretierbarkeit maschineller Lernverfahren in der Kreditrisikomessung

Interpretierbarkeit maschineller Lernverfahren in der Kreditrisikomessung

Methoden zur Erklärbarkeit von ML-Modellen im aufsichtsrechtlichen Kontext der Kreditrisikomessung – von SHAP bis XAI-Frameworks.


Autoren: Prof. Dr. Dirk Schieborn, Prof. Dr. Volker Reichenberger

Journal: Zeitschrift für das gesamte Kreditwesen

Erscheinungsjahr: 2021


Zusammenfassung

Maschinelle Lernverfahren liefern in der Kreditrisikomessung oft bessere Prognosegüten als klassische statistische Modelle – sind aber in ihrer Funktionsweise schwerer nachvollziehbar. Dies stellt Banken vor eine grundlegende Herausforderung: Aufsichtsbehörden erwarten, dass Ratingverfahren erklärbar und validierbar sind.

Der Artikel systematisiert die gängigen Ansätze zur Interpretierbarkeit (Explainable AI / XAI) und bewertet sie hinsichtlich ihrer Praxistauglichkeit für IRBA-Ratingverfahren. Im Fokus stehen:

  • Modellbasierte Interpretierbarkeit: Entscheidungsbäume, lineare Modelle mit Regularisierung
  • Post-hoc-Erklärbarkeit: SHAP (SHapley Additive exPlanations), LIME
  • Regulatorische Anforderungen: EBA-Leitlinien, MaRisk, CRR-Dokumentationspflichten

Fazit

Eine sorgfältig gewählte Kombination aus leistungsfähigen ML-Verfahren und geeigneten Erklärbarkeitsmethoden ermöglicht es Banken, das Potenzial der Künstlichen Intelligenz im Risikomanagement auszuschöpfen – ohne dabei aufsichtsrechtliche Anforderungen zu gefährden.